27 resultados para Remittance Decay
em Université de Montréal, Canada
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Ce texte a été présenté à la table ronde « Contested Footage: Snuff, Disease, the Avant-Garde, and the Archive » lors du congrès annuel de la PCA/ACA (Popular Culture Association/American Culture Association) qui se tenait à la Nouvelle-Orléans, du 1er au 4 avril 2015. La participation à ce congrès s’inscrivait dans le cadre du projet de recherche « Archives et création : nouvelles perspectives sur l’archivistique » sous la direction d’Yvon Lemay. Ce projet est financée par le Conseil de recherches en sciences humaines du Canada (CRSH) dans le cadre du programme Savoir (2013-2016).
Resumo:
Une série de dimères composés de thiophène-aniline encombrée stériquement a été synthétisée. Les différents processus de désactivation de l’état singulet excité ont été étudiés par UV-visible, fluorescence, phosphorescence, photolyse par impulsion laser et calculs théoriques. Les graphiques de Stern-Volmer obtenus à partir des expériences de désactivation des états singulet et triplet ont démontré l’efficacité de l’azométhine à désactiver les fluorophores. Les calculs semi-empiriques AM1 examinant l’effet des substituants encombrés ont démontrés que les groupements tert-butyls sur l’aniline ont moins d’influence sur la barrière de rotation N-aryl que les substitutions alkyles en ont sur la rotation de thiophène-C. Les calculs Rehm-Weller basés sur les potentiels d’oxydation et de réduction ont montré que l’autodésactivation de l’état excité des azométhines se fait par transfert d’électron photoinduit menant à une éradication complète de la fluorescence. Des complexes métalliques contenant des ligands azométhines ont aussi été préparés. Le ligand est composé d’une unité hydroxyquinoline lié à un cycle thiophène. Les données photophysiques de ces complexes indiquent un déplacement bathochromique aussi bien en absorbance qu’en fluorescence. Des dispositifs de détection d’ion métallique ont été préparés et un exemple à partir d’une solution de cuivre a montré un déplacement bathochromique.
Resumo:
Ibn Khaldûn(1332-1406) fut homme d’Etat et historien des conflits et des changements politiques au Moyen-Orient et en Afrique du Nord. Il a écrit la Muqaddima, une vaste analyse du déclin de la civilisation arabe. Dans cet ouvrage l’ «éthique du Juste » est présentée comme l’obéissance à la loi et l’application des sciences rationnelles à la tradition. Ceci le mène à condamner l’ « éthique du Bien » en tant que calcul de son propre bonheur. Le conflit actuel reflète bien ce dualisme sous de nouvelles formes d’eudémonisme telle que l’utilitarisme. Sa théorie du changement politique et des conflits est toujours d’actualité : le développement économique conduit à la destruction des dynasties au pouvoir ; ce dernier repose sur l’Asabiya, une forme spécifique du capital social. Le pouvoir politique dure trois générations et connaît une évolution faite d’essor, d’apogée et de déclin. Cette théorie des « trois phases » du développement permet de mieux comprendre les conflits que connaît actuellement le monde arabe.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Nous étudions la recombinaison radiative des porteurs de charges photogénérés dans les puits quantiques InGaN/GaN étroits (2 nm). Nous caractérisons le comportement de la photoluminescence face aux différentes conditions expérimentales telles la température, l'énergie et la puissance de l'excitation et la tension électrique appliquée. Ces mesures montrent que l'émission provient d'états localisés. De plus, les champs électriques, présents nativement dans ces matériaux, n'ont pas une influence dominante sur la recombinaison des porteurs. Nous avons montré que le spectre d'émission se modifie significativement et subitement lorsque la puissance de l'excitation passe sous un certain seuil. L'émission possède donc deux ``phases'' dont nous avons déterminé le diagramme. La phase adoptée dépend à la fois de la puissance, de la température et de la tension électrique appliquée. Nous proposons que la phase à basse puissance soit associée à un état électriquement chargé dans le matériau. Ensuite, nous avons caractérisé la dynamique temporelle de notre échantillon. Le taux de répétition de l'excitation a une influence importante sur la dynamique mesurée. Nous concluons qu'elle ne suit pas une exponentielle étirée comme on le pensait précédemment. Elle est exponentielle à court temps et suit une loi de puissance à grand temps. Ces deux régimes sont lié à un seul et même mécanisme de recombinaison. Nous avons développé un modèle de recombinaison à trois niveaux afin d'expliquer le comportement temporel de la luminescence. Ce modèle suppose l'existence de centres de localisation où les porteurs peuvent se piéger, indépendamment ou non. L'électron peut donc se trouver sur un même centre que le trou ou sur n'importe quel autre centre. En supposant le transfert des porteurs entre centres par saut tunnel on détermine, en fonction de la distribution spatiale des centres, la dynamique de recombinaison. Ce modèle indique que la recombinaison dans les puits InGaN/GaN minces est liée à des agglomérats de centre de localisation.
Resumo:
Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.
Resumo:
Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.
Resumo:
Le seul vrai livre, pour Proust, est la traduction des impressions perdues dont la trace subsiste dans notre mémoire sensible. Les personnages entrent dans le texte de la Recherche en frappant la sensibilité du héros. Or, « toujours déjà là, » la grand-mère, comme la mère, relève d'une réalité qui ne s'est jamais imprimée, une réalité antérieure à la conscience du narrateur et de ce fait, antérieure au texte. Néanmoins, la grand-mère est une mère qui vieillit et qui meurt. Alors, elle apparaît au narrateur, suivant ainsi le chemin inverse de l'altérité. De présence immédiate pour le héros, il lui faudra devenir autre, une vieille femme étrangère, indéfinie dans son geste vers la mort, afin que le texte lui restitue une première impression. C'est précisément dans cette distance à parcourir, cet itinéraire entre l'immédiateté du départ et la première impression, que la spécificité du personnage de la grand-mère touche à ce que Proust qualifierait lui-même de « névralgie » de son texte. La réalité maternelle, pour devenir objet du style littéraire, doit se plier au trait de l'écrivain. Or, le personnage de mère, telle qu'il est élaboré dans la Recherche, résiste à ce « fléchissement ». Le personnage de grand-mère permet à Proust d'exprimer la réalité de la mère qui se dégrade et qui meurt, une mère que la main du fils devenant écrivain rend malléable.
Resumo:
Scénarios d’aveuglement dans la littérature d’Orhan Pamuk, d’Ernesto Sábato, et de José Saramago analyse trois œuvres importantes de trois auteurs contemporains : Mon nom est Rouge d’Orhan Pamuk ; « Rapport sur les aveugles » du roman Héros et tombes d’Ernesto Sábato ; et L’aveuglement de José Saramago. Malgré leurs différences, ces romans ont des points communs évidents, synthétisés dans la figure de l’aveuglement. Cette figure signale l’avènement, dans les textes, d’un régime de connaissance alternatif, centré moins sur le primat de la raison et du visuel que sur une nouvelle capacité cognitive, basée sur une logique spéciale du destin. L’aveuglement s’ouvre également sur une nouvelle compréhension de l’histoire, grâce à une capacité du récit de fiction qui passe par le point de fuite de la cécité. Pour Pamuk, l’aveuglement est le couronnement paradoxal d’une vision du monde, gravement mise en crise à la fin du XVIe siècle par le perspectivisme et le réalisme de la Renaissance, la voie d’entrée vers un monde imaginal qui n’est plus accessible à l’imaginaire occidental. Pour Sábato, il représente la variante renversée d’une quête de l’absolu qui passe par les antres de l’inceste, de l’enfer et du crime, tandis que le monde décrit par Saramago est un monde qui sombre sur la pente de la déchéance, en suivant une logique implacable. Il est l’équivalent de plusieurs formes de cécité qui menacent le monde contemporain, comme le fondamentalisme religieux, l’homogénéité préconisée par la société de masse, l’exclusion raciale, l’oppression idéologique. La thèse se divise en trois parties, La violente beauté du monde, Un mythe hérétique de la caverne et Une épidémie à cause inconnue, chacune d’entre elles analysant l’œuvre d’un auteur, mais établissant également des liens avec les autres chapitres. L’approche adoptée est interdisciplinaire, un croisement entre études littéraires, philosophie et histoire de l’art. Dans leur quête de nouveaux concepts et de nouvelles formes de pensée qui s’écartent du modèle rationnel dominant de la modernité, les trois auteurs partent de la présupposition que regarder les choses n’est pas du tout l’équivalent de voir les choses. Ils tentent d’articuler une logique du voir qui ressemble plutôt à la vision et à la clairvoyance qu’à la conformité logique. La figure de l’aveuglement sert de tremplin vers le monde imaginal (Pamuk), la pensée magique (Sábato) et la vision dystopique (Saramago) – des espaces ontologiquement différents où les auteurs mènent leurs attaques contre la rationnalité à tout prix. C’est précisément ces espaces que nous avons choisi d’explorer dans les trois romans. Nous soutenons également que ces trois textes proposent un nouveau régime de « connaissance » qui met en question les règles de pensée héritées de la Renaissance et surtout des Lumières, qui constituent un discours dominant dans la culture visuelle et philosophique moderne.
Resumo:
Les dystrophies musculaires des ceintures (ou limb-girdle muscular dystrophy, LGMD) sont un groupe hétérogène de dystrophies musculaires chez l’adulte et sont définies par une atrophie et une faiblesse progressive qui surviennent dans les muscles proximaux. Chez une cohorte canadienne-française, nous avons précédemment décrit une nouvelle forme récessive, désignée LGMD2L et marquée par une atrophie asymétrique du quadriceps, que nous avions cartographiée au chromosome 11p12-p13 grâce à des analyses de liaison. L’objectif de ce projet de thèse était de raffiner l’intervalle candidat, puis d’identifier et de caractériser le gène muté responsable de la LGMD2L. Grâce à une cartographie par homozygotie de polymorphismes de nucléotide simple (SNPs) réalisée sur une grande famille consanguine, nous avons redéfini l’intervalle candidat à une région du chromosome 11p14.3-p15.1. Par séquençage de l’ADN génomique et complémentaire au gène Anoctamine 5 (ANO5) inclus dans cet intervalle, nous avons identifié trois mutations, chez autant de familles: une substitution créant un site d’épissage aberrant, une insertion d’un nucléotide et une mutation faux-sens. Les deux premières mutations étaient associées à une hausse de la dégradation de l’ARN messager médiée par une troncation prématurée. Nous avons également identifié des mutations ANO5 chez une seconde dystrophie musculaire de type distal cartographiant au même locus que la LGMD2L, nommée MMD3, et dont la manifestation initiale était une faiblesse des mollets, mais qui pouvait progresser vers une atrophie des quadriceps. Une réparation membranaire défective avait été observée chez les fibroblastes de deux patients MMD3, suggérant un rôle pour ANO5 dans ce mécanisme. La localisation et la fonction d’ANO5 dans le muscle sont inconnues, mais cette protéine fait partie d’une famille conservée de protéines à huit domaines transmembranaires, les Anoctamines, dont certains membres sont des transporteurs chloriques activés par le calcium. Les résultats de nos études d’immunofluorescence suggèrent qu’ANO5 se localise peu au sarcolemme, mais plutôt à une structure intracellulaire qui suit la ligne Z des myofibrilles. De façon étonnante, cette localisation était préservée chez un patient LGMD2L porteur homozygote de la mutation d’épissage, en dépit du fait que cette dernière était considérée comme une mutation nulle. Néanmoins, nous avons identifié un épissage alternatif de l’exon 15 qui se produisait sur une proportion des transcrits porteurs de la mutation d’épissage, ce qui rétablirait le cadre de lecture, soulignant la complexité de la régulation de l’épissage d’ANO5 et laissant croire que la LGMD2L pourrait être causée par une perte de fonction partielle, et non complète, d’ANO5. Des études subséquentes par des groupes européens ont montré que les anoctaminopathies 5 sont une cause fréquente de dystrophies musculaires des ceintures chez l’adulte. Notre découverte de mutations au gène Anoctamine 5 a mis en évidence une nouvelle classe de protéines importantes pour la biologie du muscle et a ouvert la voie à de nouvelles pistes pour étudier les mécanismes par lesquels un défaut de réparation membranaire progresse en une dystrophie musculaire.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
La régulation post-transcriptionnelle joue un rôle de premier plan dans le contrôle fin de l’expression génique en permettant une modulation de la synthèse de protéines dans le temps et l’espace, en fonction des besoins de la cellule. Ainsi, des protéines reconnaissant des éléments d’ARN présents sur des transcrits peuvent influencer toutes les étapes de leur existence, soit leur épissage, leur export nucléaire, leur localisation subcellulaire, leur traduction et leur dégradation. Staufen1 (Stau1) est un membre de la famille des protéines liant l’ARN double-brin qui contribue à la régulation post-transcriptionnelle par son implication dans des mécanismes qui vont promouvoir l’épissage alternatif, le transport, la dé-répression de la traduction et l’induction de la dégradation d’ARN messagers (ARNm) spécifiques. L’identité des cibles potentielles de Stau1 est maintenant connue puisqu’une étude à l’échelle du génome a montré que la protéine s’associe à près de 7% du transcriptome des cellules HEK293T. Ces ARNm se classent dans un large éventail de catégories fonctionnelles, mais il est tout de même intéressant de noter qu’une grande proportion d’entre eux code pour des protéines reliées au métabolisme cellulaire et à la régulation de processus cellulaires. En considérant toutes ces informations, nous avons émis l’hypothèse que les différentes activités de Stau1 puissent être modulées afin de contrôler adéquatement l’expression des transcrits liés par la protéine. Dans la mesure où certains ARNm faisant partie des complexes définis par la présence de Stau1 codent pour des régulateurs clés de la prolifération cellulaire, nous avons voulu examiner si l’expression de la protéine varie au cours du cycle de division cellulaire. Nous avons montré que l’abondance de Stau1 est maximale en début de mitose et qu’elle diminue ensuite lorsque les cellules complètent la division cellulaire. Nous avons ensuite découvert que cette baisse d’expression de Stau1 en sortie de mitose dépend du complexe promoteur d’anaphase/cyclosome (APC/C). En soutien à l’idée que Stau1 soit une cible de cette ubiquitine ligase de type E3, nous avons de plus démontré que Stau1 est ubiquitiné et dégradé par le protéasome. Ce contrôle des niveaux de Stau1 semble important puisque la surexpression de la protéine retarde la sortie de mitose et entraîne une diminution importante de la prolifération cellulaire. Par ailleurs, nous avons supposé que les différentes fonctions de Stau1 puissent également être sujettes à une régulation. Compte tenu que les activités de nombreuses protéines liant l’ARN peuvent être contrôlées par des modifications post-traductionnelles telles que la phosphorylation, nous avons voulu tester la possibilité que Stau1 soit phosphorylé. L’immunopurification de Stau1 et son analyse par spectrométrie de masse nous a permis d’identifier trois phosphosites dans la protéine. L’évaluation du rôle de ces événements de phosphorylation à l’aide de mutants phoshomimétiques ou non-phoshorylables a révélé que la modification de Stau1 pourrait compromettre son association à la protéine UPF1. Comme cette interaction est nécessaire pour déstabiliser les transcrits liés par Stau1, nos résultats suggèrent fortement que la fonction de Stau1 dans la dégradation d’ARNm est régulée négativement par sa phosphorylation. Toutes ces données mettent en lumière l’importance des modifications post-traductionnelles telles que l’ubiquitination et la phosphorylation dans la modulation de l’expression et des fonctions de Stau 1. Somme toute, il est vraisemblable que ces mécanismes de contrôle puissent avoir un impact significatif sur le destin des ARNm liés par Stau1, particulièrement dans un contexte de progression dans le cycle cellulaire.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.