391 resultados para Visualisation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paper addresses issues related to the design of a graphical query mechanism that can act as an interface to any object-oriented database system (OODBS), in general, and the object model of ODMG 2.0, in particular. In the paper a brief literature survey of related work is given, and an analysis methodology that allows the evaluation of such languages is proposed. Moreover, the user's view level of a new graphical query language, namely GOQL (Graphical Object Query Language), for ODMG 2.0 is presented. The user's view level provides a graphical schema that does not contain any of the perplexing details of an object-oriented database schema, and it also provides a foundation for a graphical interface that can support ad-hoc queries for object-oriented database applications. We illustrate, using an example, the user's view level of GOQL

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Concept maps are a technique used to obtain a visual representation of a person's ideas about a concept or a set of related concepts. Specifically, in this paper, through a qualitative methodology, we analyze the concept maps proposed by 52 groups of teacher training students in order to find out the characteristics of the maps and the degree of adequacy of the contents with regard to the teaching of human nutrition in the 3rd cycle of primary education. The participants were enrolled in the Teacher Training Degree majoring in Primary Education, and the data collection was carried out through a training activity under the theme of what to teach about Science in Primary School? The results show that the maps are a useful tool for working in teacher education as they allow organizing, synthesizing, and communicating what students know. Moreover, through this work, it has been possible to see that future teachers have acceptable skills for representing the concepts/ideas in a concept map, although the level of adequacy of concepts/ideas about human nutrition and its relations is usually medium or low. These results are a wake-up call for teacher training, both initial and ongoing, because they shows the inability to change priorities as far as the selection of content is concerned.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many bacterial and viral pathogens (or their toxins), including Pseudomonas aeruginosa exotoxin A, require processing by host pro-protein convertases such as furin to cause dis- ease. We report the development of a novel irreversible inhibitor of furin (QUB-F1) consist- ing of a diphenyl phosphonate electrophilic warhead coupled with a substrate-like peptide (RVKR), that also includes a biotin tag, to facilitate activity-based profiling/visualisation. QUB-F1 displays greater selectivity for furin, in comparison to a widely used exemplar com- pound (furin I) which has a chloromethylketone warhead coupled to RVKR, when tested against the serine trypsin-like proteases (trypsin, prostasin and matriptase), factor Xa and the cysteine protease cathepsin B. We demonstrate QUB-F1 does not prevent P. aerugi- nosa exotoxin A-induced airway epithelial cell toxicity; in contrast to furin I, despite inhibiting cell surface furin-like activity to a similar degree. This finding indicates additional proteases, which are sensitive to the more broad-spectrum furin I compound, may be involved in this process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this work was to develop a novel dimensionality reduction technique as a part of an integrated pattern recognition solution capable of identifying adulterants such as hazelnut oil in extra virgin olive oil at low percentages based on spectroscopic chemical fingerprints. A novel Continuous Locality Preserving Projections (CLPP) technique is proposed which allows the modelling of the continuous nature of the produced in-house admixtures as data series instead of discrete points. The maintenance of the continuous structure of the data manifold enables the better visualisation of this examined classification problem and facilitates the more accurate utilisation of the manifold for detecting the adulterants. The performance of the proposed technique is validated with two different spectroscopic techniques (Raman and Fourier transform infrared, FT-IR). In all cases studied, CLPP accompanied by k-Nearest Neighbors (kNN) algorithm was found to outperform any other state-of-the-art pattern recognition techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction to the module, fundamentals, history of data visualisation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computer game technology produces compelling ‘immersive environments’ where our digitally-native youth play and explore. Players absorb visual, auditory and other signs and process these in real time, making rapid choices on how to move through the game-space to experience ‘meaningful play’. How can immersive environments be designed to elicit perception and understanding of signs? In this paper we explore game design and gameplay from a semiotic perspective, focusing on the creation of meaning for players as they play the game. We propose a theory of game design based on semiotics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we explore the use of a commercial computer game-engine “Unreal Tournament 2004” (UT2004) to produce “Immersive Environments” (IEs) which provide the digital artist with a new mode of expression, to engage with the viewing public as individuals or in collaboration. We explore two modalities of Art, the ‘gallery’ and the ‘installation’. Through a reflection on various twentieth-century abstract artists, we indicate how this technology may be engaged to more fully realize their philosophies and projects. Finally, we suggest how this technology may lead to new forms of artistic expression in our contemporary digital world.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

There appears to be a limited but growing body of research on the sequential analysis/treatment of multiple types of evidence. The development of an integrated forensic approach is necessary to maximise evidence recovery and to ensure that a particular treatment is not detrimental to other types of evidence. This study aims to assess the effect of latent and blood mark enhancement techniques (e.g. fluorescence, ninhydrin, acid violet 17, black iron-oxide powder suspension) on the subsequent detection of saliva. Saliva detection was performed by means of a presumptive test (Phadebas®) in addition to analysis by a rapid stain identification (RSID) kit test and confirmatory DNA testing. Additional variables included a saliva depletion series and a number of different substrates with varying porosities as well as different ageing periods. Examination and photography under white light and fluorescence was carried out prior to and after chemical enhancement All enhancement techniques (except Bluestar® Forensic Magnum luminol) employed in this study resulted in an improved visualisation of the saliva stains, although the inherent fluorescence of saliva was sometimes blocked after chemical treatment. The use of protein stains was, in general, detrimental to the detection of saliva. Positive results were less pronounced after the use of black iron-oxide powder suspension, cyanoacrylate fuming followed by BY40 and ninhydrin when compared to the respective positive controls. The application of Bluestar® Forensic Magnum luminol and black magnetic powder proved to be the least detrimental, with no significant difference between the test results and the positive controls. The use of non-destructive fluorescence examination provided good visualisation; however, only the first few marks in the depletion were observed. Of the samples selected for DNA analysis only depletion 1 samples contained sufficient DNA quantity for further processing using standard methodology. The 28 day delay between sample deposition and collection resulted in a 5-fold reduction in the amount of useable DNA. When sufficient DNA quantities were recovered, enhancement techniques did not have a detrimental effect on the ability to generate DNA profiles. This study aims to contribute to a strategy for maximising evidence recovery and efficiency for the detection of latent marks and saliva. The results demonstrate that most of the enhancement techniques employed in this study were not detrimental to the subsequent detection of saliva by means of presumptive, confirmative and DNA tests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Targeted cancer therapy aims to disrupt aberrant cellular signalling pathways. Biomarkers are surrogates of pathway state, but there is limited success in translating candidate biomarkers to clinical practice due to the intrinsic complexity of pathway networks. Systems biology approaches afford better understanding of complex, dynamical interactions in signalling pathways targeted by anticancer drugs. However, adoption of dynamical modelling by clinicians and biologists is impeded by model inaccessibility. Drawing on computer games technology, we present a novel visualisation toolkit, SiViT, that converts systems biology models of cancer cell signalling into interactive simulations that can be used without specialist computational expertise. SiViT allows clinicians and biologists to directly introduce for example loss of function mutations and specific inhibitors. SiViT animates the effects of these introductions on pathway dynamics, suggesting further experiments and assessing candidate biomarker effectiveness. In a systems biology model of Her2 signalling we experimentally validated predictions using SiViT, revealing the dynamics of biomarkers of drug resistance and highlighting the role of pathway crosstalk. No model is ever complete: the iteration of real data and simulation facilitates continued evolution of more accurate, useful models. SiViT will make accessible libraries of models to support preclinical research, combinatorial strategy design and biomarker discovery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A review of recent research in the use of one-step fluorescent cyanoacrylate techniques is presented. Advantages and disadvantages of such techniques in comparison to two-step processes are discussed. Further studies and new experimental data are presented to aid this review: three one-step cyanoacrylate products (Lumicyano, PolyCyano UV and PECA Multiband) containing a fluorescent dye were tested to evaluate their effectiveness in developing latent fingermarks on polyethylene bags by means of a pseudo operational trial. The results were compared to the traditional two-step process of cyanoacrylate fuming followed by staining with ethanol-based basic yellow 40 (BY40). The study was conducted using sequential treatments of an initial fuming cycle, a second cycle and finally BY40 staining. LumicyanoTM and PolyCyano UV performed similarly before BY40 staining, with both providing good contrast and visibility under fluorescence. PECA Multiband, however, did not develop as many fingermarks and proved to be problematic for the fuming cabinet. Subsequent BY40 staining of fingermarks developed by all three one-step processes enabled the visualisation of new fingermarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Telomeres are DNA-protein complexes which cap the ends of eukaryotic linear chromosomes. In normal somatic cells telomeres shorten and become dysfunctional during ageing due to the DNA end replication problem. This leads to activation of signalling pathways that lead to cellular senescence and apoptosis. However, cancer cells typically bypass this barrier to immortalisation in order to proliferate indefinitely. Therefore enhancing our understanding of telomere dysfunction and pathways involved in regulation of the process is essential. However, the pathways involved are highly complex and involve interaction between a wide range of biological processes. Therefore understanding how telomerase dysfunction is regulated is a challenging task and requires a systems biology approach. In this study I have developed a novel methodology for visualisation and analysis of gene lists focusing on the network level rather than individual or small lists of genes. Application of this methodology to an expression data set and a gene methylation data set allowed me to enhance my understanding of the biology underlying a senescence inducing drug and the process of immortalisation respectively. I then used the methodology to compare the effect of genetic background on induction of telomere uncapping. Telomere uncapping was induced in HCT116 WT, p21-/- and p53-/- cells using a viral vector expressing a mutant variant of hTR, the telomerase RNA template. p21-/- cells showed enhanced sensitivity to telomere uncapping. Analysis of a candidate pathway, Mismatch Repair, revealed a role for the process in response to telomere uncapping and that induction of the pathway was p21 dependent. The methodology was then applied to analysis of the telomerase inhibitor GRN163L and synergistic effects of hypoglycaemia with this drug. HCT116 cells were resistant to GRN163L treatment. However, under hypoglycaemic conditions the dose required for ablation of telomerase activity was reduced significantly and telomere shortening was enhanced. Overall this new methodology has allowed our group and collaborators to identify new biology and improve our understanding of processes regulating telomere dysfunction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suppressor of cytokine signalling 3 (SOCS3) is a potent inhibitor of the mitogenic, migratory and pro-inflammatory pathways responsible for the development of neointimal hyperplasia (NIH), a key contributor to the failure of vascular reconstructive procedures. However, the protein levels of SOCS3, and therefore its potential to reduce NIH, is limited by its ubiquitylation and high turnover by the proteasome. I hypothesised that stabilisation of endogenous SOCS3 by inhibiting its ubiquitylation has the potential to limit vascular inflammation and NIH. Consequently, the aim of this PhD was to identify the mechanisms promoting the rapid turnover of SOCS3. Initial experiments involved the identification of residues involved in regulating the turnover of SOCS3 at the proteasome. I assessed the ubiquitylation status of a panel of FLAG tagged SOCS3 truncation mutants and identified a C-terminal 44 amino acid region required for SOCS3 ubiquitylation. This region localised to the SOCS box which is involved in binding Elongin B/C and the formation of a functional E3 ubiquitin ligase complex. However, the single lysine residue at position 173, located within this 44 amino acid region, was not required for ubiquitylation. Moreover, Emetine chase assays revealed that loss of either Lys173 or Lys6 (as documented in the literature) had no significant effect on SOCS3 stability 8 hrs post emetine treatment. As mutagenesis studies failed to identify key sites of ubiquitylation responsible for targeting SOCS3 to the proteasome, LC-MS-MS analysis of a SOCS3 co-immunoprecipitate was employed. These data were searched for the presence of a Gly-Gly doublet (+114 Da mass shift) and revealed 8 distinct sites of ubiquitylation (Lys23, Lys28, Lys40, Lys85, Lys91, Lys173, Lys195, Lys206) on SOCS3 however Lys6 ubiquitylation was not detected. As multiple Lys residues were ubiquitylated, I hypothesised that only a Lys-less SOCS3, in which all 8 Lys residues were mutated to Arg, would be resistant to ubiquitylation. Compared to WT SOCS3, Lys-less SOCS3 was indeed found to be completely resistant to ubiquitylation, and significantly more stable than WT SOCS3. These changes occurred in the absence of any detrimental effect on the ability of Lys-less SOCS3 to interact with the Elongin B/C components required to generate a functional E3 ligase complex. In addition, both WT and Lys-less SOCS3 were equally capable of inhibiting cytokine-stimulated STAT3 phosphorylation upon co-expression with a chimeric EpoR-gp130 receptor. To assess whether SOCS3 auto-ubiquitylates I generated an L189A SOCS3 mutant that could no longer bind the Elongins and therefore form the E3 ligase complex required for ubiquitylation. A denaturing IP to assess the ubiquitylation status of this mutant was performed and revealed that, despite an inability to bind the Elongins, the L189A mutant was poly-ubiquitylated similar to WT SOCS3. Together these data suggested that SOCS3 does not auto-ubiquitylate and that a separate E3 ligase must regulate SOCS3 ubiquitylation. This study sought to identify the E3 ligase and deubiquitylating (DUB) enzymes controlling the ubiquitylation of SOCS3. Our initial strategy was to develop a tool to screen an E3 ligase/DUB library, using an siARRAY, to sequentially knockdown all known E3 ligases in the presence of a SOCS3-luciferase fusion protein or endogenous SOCS3 in a high content imaging screening platform. However, due to a poor assay window (<2) and non-specific immunoreactivity of SOCS3 antibodies available, these methods were deemed unsuitable for screening purposes. In the absence of a suitable tool to screen the si-ARRAY, LC-MS-MS analysis of a SOCS3 co-immunoprecipitate (co-IP) was investigated. I performed a SOCS3 under conditions which preserved protein-protein interactions, with the aim of identifying novel E3 ligase and/or DUBs that could potentially interact with SOCS3. These data were searched for E3 ligase or DUB enzymes that may interact with SOCS3 in HEK293 cells and identified two promising candidates i) an E3 ligase known as HectD1 and ii) a DUB known as USP15. This thesis has demonstrated that in the presence of HectD1 overexpression, a slight increase in K63-linked polyubiquitylation of SOCS3 was observed. Mutagenesis also revealed that an N-terminal region of SOCS3 may act as a repressor of this interaction with HectD1. Additionally, USP15 was shown to reduce SOCS3 polyubiquitylation in a HEK293 overexpression system suggesting this may act as a DUB for SOCS3. The C-terminal region of SOCS3 was also shown to play a major role in the interaction with USP15. The original hypothesis of this thesis was that stabilisation of endogenous SOCS3 by inhibiting its ubiquitylation has the potential to limit vascular inflammation and NIH. Consistent with this hypothesis, immunohistochemistry visualisation of SOCS3, in human saphenous vein tissue derived from CABG patients, revealed that while SOCS3 was present throughout the media of these vessels the levels of SOCS3 within the neointima was reduced. Finally, preliminary data supporting the hypothesis that SOCS3 overexpression may limit the proliferation, but not migration, of human saphenous vein smooth muscle cells (HSVSMCs) is presented. It is expected that multiple E3 ligases and DUBs will contribute to the regulation of SOCS3 turnover. However, the identification of candidate E3 ligases or DUBs that play a significant role in SOCS3 turnover may facilitate the development of peptide disruptors or gene therapy targets to attenuate pathological SMC proliferation. A targeted approach, inhibiting the interaction between SOCS3 and identified E3 ligase, that controls the levels of SOCS3, would be expected to reduce the undesirable effects associated with global inhibition of the E3 ligase involved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a classical result of 1972 Singerman classifies the inclusions between triangle groups. We extend the classification to a broader family of triangle and quadrangle groups forming a particular subfamily of Fuchsian groups. With two exceptions, each inclusion determines a finite bipartite map (hypermap) on a 2-dimensional spherical orbifold that encodes the complete information and gives a graphical visualisation of the inclusion. A complete description of all the inclusions is contained in the attached tables.