931 resultados para Recent Structural Models
Resumo:
The advances that have been characterizing spatial econometrics in recent years are mostly theoretical and have not found an extensive empirical application yet. In this work we aim at supplying a review of the main tools of spatial econometrics and to show an empirical application for one of the most recently introduced estimators. Despite the numerous alternatives that the econometric theory provides for the treatment of spatial (and spatiotemporal) data, empirical analyses are still limited by the lack of availability of the correspondent routines in statistical and econometric software. Spatiotemporal modeling represents one of the most recent developments in spatial econometric theory and the finite sample properties of the estimators that have been proposed are currently being tested in the literature. We provide a comparison between some estimators (a quasi-maximum likelihood, QML, estimator and some GMM-type estimators) for a fixed effects dynamic panel data model under certain conditions, by means of a Monte Carlo simulation analysis. We focus on different settings, which are characterized either by fully stable or quasi-unit root series. We also investigate the extent of the bias that is caused by a non-spatial estimation of a model when the data are characterized by different degrees of spatial dependence. Finally, we provide an empirical application of a QML estimator for a time-space dynamic model which includes a temporal, a spatial and a spatiotemporal lag of the dependent variable. This is done by choosing a relevant and prolific field of analysis, in which spatial econometrics has only found limited space so far, in order to explore the value-added of considering the spatial dimension of the data. In particular, we study the determinants of cropland value in Midwestern U.S.A. in the years 1971-2009, by taking the present value model (PVM) as the theoretical framework of analysis.
Resumo:
Constant developments in the field of offshore wind energy have increased the range of water depths at which wind farms are planned to be installed. Therefore, in addition to monopile support structures suitable in shallow waters (up to 30 m), different types of support structures, able to withstand severe sea conditions at the greater water depths, have been developed. For water depths above 30 m, the jacket is one of the preferred support types. Jacket represents a lightweight support structure, which, in combination with complex nature of environmental loads, is prone to highly dynamic behavior. As a consequence, high stresses with great variability in time can be observed in all structural members. The highest concentration of stresses occurs in joints due to their nature (structural discontinuities) and due to the existence of notches along the welds present in the joints. This makes them the weakest elements of the jacket in terms of fatigue. In the numerical modeling of jackets for offshore wind turbines, a reduction of local stresses at the chord-brace joints, and consequently an optimization of the model, can be achieved by implementing joint flexibility in the chord-brace joints. Therefore, in this work, the influence of joint flexibility on the fatigue damage in chord-brace joints of a numerical jacket model, subjected to advanced load simulations, is studied.
Resumo:
In this work I tried to explore many aspects of cognitive visual science, each one based on different academic fields, proposing mathematical models capable to reproduce both neuro-physiological and phenomenological results that were described in the recent literature. The structure of my thesis is mainly composed of three chapters, corresponding to the three main areas of research on which I focused my work. The results of each work put the basis for the following, and their ensemble form an homogeneous and large-scale survey on the spatio-temporal properties of the architecture of the visual cortex of mammals.
Resumo:
In dieser Arbeit wird ein vergröbertes (engl. coarse-grained, CG) Simulationsmodell für Peptide in wässriger Lösung entwickelt. In einem CG Verfahren reduziert man die Anzahl der Freiheitsgrade des Systems, so dass manrngrössere Systeme auf längeren Zeitskalen untersuchen kann. Die Wechselwirkungspotentiale des CG Modells sind so aufgebaut, dass die Peptid Konformationen eines höher aufgelösten (atomistischen) Modells reproduziert werden.rnIn dieser Arbeit wird der Einfluss unterschiedlicher bindender Wechsel-rnwirkungspotentiale in der CG Simulation untersucht, insbesondere daraufhin,rnin wie weit das Konformationsgleichgewicht der atomistischen Simulation reproduziert werden kann. Im CG Verfahren verliert man per Konstruktionrnmikroskopische strukturelle Details des Peptids, zum Beispiel, Korrelationen zwischen Freiheitsgraden entlang der Peptidkette. In der Dissertationrnwird gezeigt, dass diese “verlorenen” Eigenschaften in einem Rückabbildungsverfahren wiederhergestellt werden können, in dem die atomistischen Freiheitsgrade wieder in die CG-Strukturen eingefügt werden. Dies gelingt, solange die Konformationen des CG Modells grundsätzlich gut mit der atomistischen Ebene übereinstimmen. Die erwähnten Korrelationen spielen einerngrosse Rolle bei der Bildung von Sekundärstrukturen und sind somit vonrnentscheidender Bedeutung für ein realistisches Ensemble von Peptidkonformationen. Es wird gezeigt, dass für eine gute Übereinstimmung zwischen CG und atomistischen Kettenkonformationen spezielle bindende Wechselwirkungen wie zum Beispiel 1-5 Bindungs- und 1,3,5-Winkelpotentiale erforderlich sind. Die intramolekularen Parameter (d.h. Bindungen, Winkel, Torsionen), die für kurze Oligopeptide parametrisiert wurden, sind übertragbarrnauf längere Peptidsequenzen. Allerdings können diese gebundenen Wechselwirkungen nur in Kombination mit solchen nichtbindenden Wechselwirkungspotentialen kombiniert werden, die bei der Parametrisierung verwendet werden, sind also zum Beispiel nicht ohne weiteres mit einem andere Wasser-Modell kombinierbar. Da die Energielandschaft in CG-Simulationen glatter ist als im atomistischen Modell, gibt es eine Beschleunigung in der Dynamik. Diese Beschleunigung ist unterschiedlich für verschiedene dynamische Prozesse, zum Beispiel für verschiedene Arten von Bewegungen (Rotation und Translation). Dies ist ein wichtiger Aspekt bei der Untersuchung der Kinetik von Strukturbildungsprozessen, zum Beispiel Peptid Aggregation.rn
Resumo:
The relatively young discipline of astronautics represents one of the scientifically most fascinating and technologically advanced achievements of our time. The human exploration in space does not offer only extraordinary research possibilities but also demands high requirements from man and technology. The space environment provides a lot of attractive experimental tools towards the understanding of fundamental mechanism in natural sciences. It has been shown that especially reduced gravity and elevated radiation, two distinctive factors in space, influence the behavior of biological systems significantly. For this reason one of the key objectives on board of an earth orbiting laboratory is the research in the field of life sciences, covering the broad range from botany, human physiology and crew health up to biotechnology. The Columbus Module is the only European low gravity platform that allows researchers to perform ambitious experiments in a continuous time frame up to several months. Biolab is part of the initial outfitting of the Columbus Laboratory; it is a multi-user facility supporting research in the field of biology, e.g. effect of microgravity and space radiation on cell cultures, micro-organisms, small plants and small invertebrates. The Biolab IEC are projects designed to work in the automatic part of Biolab. In this moment in the TO-53 department of Airbus Defence & Space (formerly Astrium) there are two experiments that are in phase C/D of the development and they are the subject of this thesis: CELLRAD and CYTOSKELETON. They will be launched in soft configuration, that means packed inside a block of foam that has the task to reduce the launch loads on the payload. Until 10 years ago the payloads which were launched in soft configuration were supposed to be structural safe by themselves and a specific structural analysis could be waived on them; with the opening of the launchers market to private companies (that are not under the direct control of the international space agencies), the requirements on the verifications of payloads are changed and they have become much more conservative. In 2012 a new random environment has been introduced due to the new Space-X launch specification that results to be particularly challenging for the soft launched payloads. The last ESA specification requires to perform structural analysis on the payload for combined loads (random vibration, quasi-steady acceleration and pressure). The aim of this thesis is to create FEM models able to reproduce the launch configuration and to verify that all the margins of safety are positive and to show how they change because of the new Space-X random environment. In case the results are negative, improved design solution are implemented. Based on the FEM result a study of the joins has been carried out and, when needed, a crack growth analysis has been performed.
Resumo:
La presente ricerca affronta lo studio della formazione delle realtà urbane nell'area dell'antico Ager Gallicus, grossomodo corrispondente all'attuale territorio delle Marche settentrionali. Nel quadro della colonizzazione romana il fenomeno urbano rappresenta, infatti, l'elemento cardine nell'organizzazione di un territorio. Per tale ragione, si è scelto di condurre un lavoro finalizzato alla comprensione dei tempi e dei modi che portarono alla formazione dei municipi e delle colonie nella strutturazione romana del territorio, cercando anche di comprendere le scelte insediative alla base delle singole forme strutturali. L'analisi della genesi e dello sviluppo del fenomeno urbano nell'ager Gallicus ha come obiettivo ultimo l'approfondimento della conoscenza sulla colonizzazione e romanizzazione in area medio adriatica. La ricerca si articola in: uno stato dell'arte delle più recenti interpretazioni storiografiche; una sintesi sulle cosiddette “forme della conquista” (frequentazioni “precoloniali”, realtà santuariali, fondazioni coloniarie, realtà proto-urbane legate all'agro); una dettagliata e aggiornata schedatura storico-archeologica e urbanistico-topografica delle singole realtà urbane dell'ager Gallicus (le colonie di Sena Gallica, Pisaurum, Fanum Fortunae e Aesis, e i municipi di Forum Sempronii, Suasa e Ostra, e Sentinum); una parte conclusiva dove, mettendo a confronto gli elementi alla base della definizione urbana delle realtà esaminate, vengono delineati e sintetizzati i principali modelli di formazione delle città nell'ager Gallicus così individuati (fondazione coloniaria; fondazione coloniaria preceduta da una fase precoloniale nella forma di conciliabulum; nucleo di aggregazione precedente (conciliabulum) scelto quale polo di riferimento del popolamento sparso nel territorio al momento delle distribuzioni viritane; centro di servizio creato in funzione di assegnazioni di terre ai coloni). Infine, viene tracciato un quadro complessivo della romanizzazione dell'ager Gallicus, che, in estrema sintesi, si configura come un processo progressivo di occupazione del territorio rispecchiato dallo sviluppo stesso del fenomeno urbano, ma che si differenzia dalle aree limitrofe o dall'area cisalpina per alcune importanti dinamiche etnico-demografiche.
Resumo:
Small-scale dynamic stochastic general equilibrium have been treated as the benchmark of much of the monetary policy literature, given their ability to explain the impact of monetary policy on output, inflation and financial markets. One cause of the empirical failure of New Keynesian models is partially due to the Rational Expectations (RE) paradigm, which entails a tight structure on the dynamics of the system. Under this hypothesis, the agents are assumed to know the data genereting process. In this paper, we propose the econometric analysis of New Keynesian DSGE models under an alternative expectations generating paradigm, which can be regarded as an intermediate position between rational expectations and learning, nameley an adapted version of the "Quasi-Rational" Expectatations (QRE) hypothesis. Given the agents' statistical model, we build a pseudo-structural form from the baseline system of Euler equations, imposing that the length of the reduced form is the same as in the `best' statistical model.
Resumo:
In recent years is becoming increasingly important to handle credit risk. Credit risk is the risk associated with the possibility of bankruptcy. More precisely, if a derivative provides for a payment at cert time T but before that time the counterparty defaults, at maturity the payment cannot be effectively performed, so the owner of the contract loses it entirely or a part of it. It means that the payoff of the derivative, and consequently its price, depends on the underlying of the basic derivative and on the risk of bankruptcy of the counterparty. To value and to hedge credit risk in a consistent way, one needs to develop a quantitative model. We have studied analytical approximation formulas and numerical methods such as Monte Carlo method in order to calculate the price of a bond. We have illustrated how to obtain fast and accurate pricing approximations by expanding the drift and diffusion as a Taylor series and we have compared the second and third order approximation of the Bond and Call price with an accurate Monte Carlo simulation. We have analysed JDCEV model with constant or stochastic interest rate. We have provided numerical examples that illustrate the effectiveness and versatility of our methods. We have used Wolfram Mathematica and Matlab.
Resumo:
Group B Streptococcus (GBS) is a Gram-positive human pathogen representing one of the most common causes of life-threatening bacterial infections such as sepsis and meningitis in neonates. Covalently polymerized pilus-like structures have been discovered in GBS as important virulence factors as well as vaccine candidates. Pili are protein polymers forming long and thin filamentous structures protruding from bacterial cells, mediating adhesion and colonization to host cells. Gram-positive bacteria, including GBS, build pili on their cell surface via a class C sortase-catalyzed transpeptidation mechanism from pilin protein substrates that are the backbone protein forming the pilus shaft and two ancillary proteins. Also the cell-wall anchoring of the pilus polymers made of covalently linked pilin subunits is mediated by a sortase enzyme. GBS expresses three structurally distinct pilus types (type 1, 2a and 2b). Although the mechanisms of assembly and cell wall anchoring of GBS types 1 and 2a pili have been investigated, those of pilus 2b are not understood until now. Pilus 2b is frequently found in ST-17 strains that are mostly associated with meningitis and high mortality rate especially in infants. In this work the assembly mechanism of GBS pilus type 2b has been elucidated by dissecting through genetic, biochemical and structural studies the role of the two pilus-associated sortases. The most significant findings show that pilus 2b assembly appears “non-canonical”, differing significantly from current pilus assembly models in Gram-positive pathogens. Only sortase-C1 is involved in pilin polymerization, while the sortase-C2 does not act as a pilin polymerase, but it is involved in cell-wall pilus anchoring. Our findings provide new insights into pili biogenesis in Gram-positive bacteria. Moreover, the role of this pilus type during host infection has been investigated. By using a mouse model of meningitis we demonstrated that type 2b pilus contributes to pathogenesis of meningitis in vivo.
Resumo:
The physico-chemical characterization, structure-pharmacokinetic and metabolism studies of new semi synthetic analogues of natural bile acids (BAs) drug candidates have been performed. Recent studies discovered a role of BAs as agonists of FXR and TGR5 receptor, thus opening new therapeutic target for the treatment of liver diseases or metabolic disorders. Up to twenty new semisynthetic analogues have been synthesized and studied in order to find promising novel drugs candidates. In order to define the BAs structure-activity relationship, their main physico-chemical properties (solubility, detergency, lipophilicity and affinity with serum albumin) have been measured with validated analytical methodologies. Their metabolism and biodistribution has been studied in “bile fistula rat”, model where each BA is acutely administered through duodenal and femoral infusion and bile collected at different time interval allowing to define the relationship between structure and intestinal absorption and hepatic uptake ,metabolism and systemic spill-over. One of the studied analogues, 6α-ethyl-3α7α-dihydroxy-5β-cholanic acid, analogue of CDCA (INT 747, Obeticholic Acid (OCA)), recently under approval for the treatment of cholestatic liver diseases, requires additional studies to ensure its safety and lack of toxicity when administered to patients with a strong liver impairment. For this purpose, CCl4 inhalation to rat causing hepatic decompensation (cirrhosis) animal model has been developed and used to define the difference of OCA biodistribution in respect to control animals trying to define whether peripheral tissues might be also exposed as a result of toxic plasma levels of OCA, evaluating also the endogenous BAs biodistribution. An accurate and sensitive HPLC-ES-MS/MS method is developed to identify and quantify all BAs in biological matrices (bile, plasma, urine, liver, kidney, intestinal content and tissue) for which a sample pretreatment have been optimized.
Resumo:
This work is focused on the analysis of sea–level change (last century), based mainly on instrumental observations. During this period, individual components of sea–level change are investigated, both at global and regional scales. Some of the geophysical processes responsible for current sea-level change such as glacial isostatic adjustments and current melting terrestrial ice sources, have been modeled and compared with observations. A new value of global mean sea level change based of tide gauges observations has been independently assessed in 1.5 mm/year, using corrections for glacial isostatic adjustment obtained with different models as a criterion for the tide gauge selection. The long wavelength spatial variability of the main components of sea–level change has been investigated by means of traditional and new spectral methods. Complex non–linear trends and abrupt sea–level variations shown by tide gauges records have been addressed applying different approaches to regional case studies. The Ensemble Empirical Mode Decomposition technique has been used to analyse tide gauges records from the Adriatic Sea to ascertain the existence of cyclic sea-level variations. An Early Warning approach have been adopted to detect tipping points in sea–level records of North East Pacific and their relationship with oceanic modes. Global sea–level projections to year 2100 have been obtained by a semi-empirical approach based on the artificial neural network method. In addition, a model-based approach has been applied to the case of the Mediterranean Sea, obtaining sea-level projection to year 2050.
Resumo:
Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.
Resumo:
Wie alle Eukaryoten besitzen auch höhere Pflanzen ein mikrotubuläres Cytoskelett. Einige Funktionen dieses Cytoskeletts sind relativ stark konserviert, andere dagegen scheinen sehr pflanzenspezifisch zu sein. Dies betrifft insbesondere charakteristische mikrotubuläre Netzwerke, die bei der Neubildung und der Verstärkung der Zellwände wichtige Rollen übernehmen. Wie der Aufbau dieser Netzwerke kontrolliert wird, ist bisher relativ unklar. Typische Mikrotubuli organisierende Zentren (MTOC), insbesondere Centrosomen oder Spindelpolkörper, sind bei höheren Pflanzen nicht beobachtet worden. Von pilzlichen und tierischen Organismen weiß man, dass gamma-Tubulin (gTUB) mit seinen assoziierten Proteinen in den MTOC bei der Nukleation von Mikrotubuli eine Schlüsselfunktion hat. Dieses Mitglied der Tubulin-Superfamilie wird aber auch in Pflanzen gefunden, dessen genaue Funktion bisher unbekannt ist. Zu Beginn der Arbeit wurden mittels in silico Berechnungen Strukturmodelle des pflanzlichen gTUBs aus Nicotiana tabacum erarbeitet, da die Struktur, die zu einem Verständnis der pflanzlichen Wachstumsregulation beitragen könnte, bisher unbekannt ist. Auf Grundlage der bioinformatischen Daten konnte für weitere Studien eine notwendige gTUB-Deletionsmutante entwickelt werden. Für Röntgendiffraktionsstudien und gTUB-Interaktionspartneranalysen war die Verfügbarkeit verhältnismäßig großer Proteinmengen notwendig. Die Expression der gTUB-Volllängensequenz in gelöster und aktiver Form stellte einen immanent wichtigen Zwischenschritt dar. Das Escherichia coli T7/lacO-Expressionssystem lieferte, trotz vielversprechender Erfolge in der Vergangenheit, kein gelöstes rekombinantes gTUB. So wurden zwar verhältnismäßig hohe Expressionsraten erzielt, aber das rekombinante gTUB lag quantitativ als Inclusion bodies vor. Eine Variationen der Expressionsparameter sowie umfangreiche Versuche mittels verschiedenster Konstrukte sowie potentiell die Löslichkeit erhöhenden Tags gTUB in gelöster Form in E. coli zu exprimieren blieben erfolglos. Eine Denaturierung der Inclusion bodies und Rückfaltung wurde aufgrund der wohl bei der Tubulinfaltung notwendigen komplexeren Chaperone sowie thermodynamischer Überlegungen ausgeschlossen. Die höher evolvierte Chaperonausstattung war ein Hauptgrund für die Verwendung der eukaryotischen Hefe-Expressionssysteme K. lactis und des S. cerevisiae-Stammes FGY217 zur gTUB-Expression. So konnten nach der Selektion nur transgene Hefe-Zellen dokumentiert werden, die die gTUB-Expressionskassette nachweislich an der vorgesehenen Zielposition in ihrem Genom integrierten, aber keine dokumentierbare Expression zeigten. Die wahrscheinlichste Begründung hierfür ist, dass ein erhöhter intrazellulärer gTUB-Titer mit dem Zellwachstum und der Zellteilung dieser eukaryotischen Organismen interferierte und durch Rückkopplungen die rekombinante gTUB-CDS aus N. tabacum ausgeschaltet wurde. Der Versuch einer transienten gTUB-Überexpression in differenzierten Blattgeweben höherer Pflanzen war eine logische Konsequenz aus den vorherigen Ergebnissen und lieferte, wenn auch nicht die für eine Proteinkristallisation notwendigen Mengen, gelöstes gTUB. Bestrebungen einer stabilen Transfektion von A. thaliana oder BY-2-Zellkulturen mit einer gTUB-CDS lieferten keine transgenen Organismen, was starke Interferenzen der rekombinanten gTUB-CDS in den Zellen vermuten lies. Transfektionsversuche mit nur GFP tragenden Konstrukten ergaben hingegen eine hohe Anzahl an transgenen Organismen, die auch verhältnismäßig starke Expressionsraten zeigten. Die erzielten Proteinmengen bei der transienten gTUB-Überexpression in N. benthamiana Blattgeweben, in Co-Expression mit dem Posttransriptional Gene Silencing-Suppressorprotein p19, waren für einen Pull-Down sowie eine massenspektroskopische Analyse der Interaktionspartner ausreichend und ergaben Befunde. Eine abschließende Auswertung des erarbeiteten massenspektroskopischen Datensatzes wird jedoch erst dann möglich sein, wenn das Tabak-Proteom vollständig sequenziert ist. Die Erweiterung der bestehenden pflanzlichen Vergleichsdatenbanken um das bisher bekannte Tabak-Proteom vervielfachte die Anzahl der in dieser Studie identifizierten gTUB-Interaktionspartner. Interaktionen mit dem TCP1-Chaperon untermauern die Hypothese der zur Faltung pflanzlichen gTUBs notwendigen Chaperone. Beobachtete gTUB-Degradationsmuster in Verbindung mit Interaktionen des 26S-Proteasoms deuten auf eine Gegenregulationen bei erhöhtem gTUB-Titer auf Proteinebene hin. Da Blattgewebe selbst nur noch über eine sehr geringe und inhomogene Teilungsaktivität verfügen ist diese Regulation hoch spannend. Auch konnte durch Co-Expression des PTGS-Suppressorproteins p19 gezeigt werden, dass bei der gTUB-Expression eine Regulation auf RNA-Ebene erfolgt.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
This work is focused on axions and axion like particles (ALPs) and their possible relation with the 3.55 keV photon line detected, in recent years, from galaxy clusters and other astrophysical objects. We focus on axions that come from string compactification and we study the vacuum structure of the resulting low energy 4D N=1 supergravity effective field theory. We then provide a model which might explain the 3.55 keV line through the following processes. A 7.1 keV dark matter axion decays in two light axions, which, in turn, are transformed into photons thanks to the Primakoff effect and the existence of a kinetic mixing between two U(1)s gauge symmetries belonging respectively to the hidden and the visible sector. We present two models, the first one gives an outcome inconsistent with experimental data, while the second can yield the desired result.