468 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung der Dissertation, Carolin Edinger, April 2015. Im Rahmen der Dissertation ist eine effiziente und zuverlässige Methode zur elektrochemischen Desoxygenierung von aromatischen Carbonsäureamiden entwickelt worden (Schema 1).[1] Unter galvanostatischen Bedingungen eignet sich das optimierte Elektrolytsystem bestehend aus 2%iger methanolischer H2SO4 und geringen Mengen an Additiv 1 in Kombination mit einer Bleikathode hervorragend in dem gewählten geteilten Zellaufbau. Schema 1: Elektrochemische Desoxygenierung aromatischer Carbonsäureamide. Untersuchungen an verschiedensten Amidsubstraten haben gezeigt, dass ein breites Spektrum an Aminen mit dieser Methode zugänglich ist und durch umfangreiche Studien konnten optimale Elektrolyseparameter gefunden werden. Außerdem wurde die Hochskalierung der Ansatzgröße an einem Testsubstrat mit hohen Aminausbeuten von bis zu 73% gewährleistet. Ein besonderes Merkmal der entwickelten Synthese ist neben milden Bedingungen und hoher Selektivität die Verwendung von Ammoniumsalzadditiven. Der positive Effekt dieser Additive auf die Desoxygenierungsreaktion ist vielfältig: Die Wasserstoffentwicklung als unerwünschte Nebenreaktion wird zu negativeren Potentialen verschoben und die Bleikathode wird durch Zurückdrängung der PbSO4-Bildung effektiv vor Korrosion geschützt. Dies konnte durch experimentelle Werte wie die Erhöhung der Produkt- und Stromausbeute durch Additivzusatz während der Elektrolyse hinreichend bestätigt werden. Aber auch zyklovoltammetrische Untersuchungen und Lichtmikroskopaufnahmen der Elektrodenoberfläche bekräftigen eindeutig diese Aussagen.[2,3] Die entwickelte elektrochemische Methode konnte zusätzlich erfolgreich auf Verbindungen übertragen werden, die mit Carbonsäureamiden verwandt sind. So gelang es, aromatische und aliphatische Sulfoxide in sehr guten Ausbeuten selektiv zu den entsprechenden Sulfiden umzusetzen. Zusätzlich konnten bereits bei weiteren, durch klassische Methoden schwer reduzierbare Stoffklassen erste Erfolge erzielt werden. So gelang es, den Grundstein zur Reduktion von Estern und Triphenylphosphinoxid zu legen und erste, vielversprechende Ergebnisse zu erlangen. Da Elektronen als Reduktionsmittel eingesetzt werden und lediglich Wasser als Nebenprodukt gebildet wird, zeichnet sich die entwickelte Desoxygenierungsmethode vor allem durch milde Bedingungen und hohe Selektivität aus. Da weder Reagenzien noch Katalysatoren verwendet werden müssen, werden Abfälle vermieden. Dadurch ist die gefundene Reduktionsmethode nicht nur kostengünstig, sondern erweist sich auch in der Reaktionsführung als vorteilhaft. Literatur: [1] C. Edinger, S. R. Waldvogel, Eur. J. Org. Chem. 2014, 2014, 5144–5148. [2] C. Edinger, V. Grimaudo, P. Broekmann, S. R. Waldvogel, ChemElectroChem 2014, 1, 1018–1022. [3] C. Edinger, S. R. Waldvogel, PCT Int. Appl. 2013, WO 2013030316A2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis was part of a multidisciplinary research project funded by the German Research Foundation (“Bevölkerungsgeschichte des Karpatenbeckens in der Jungsteinzeit und ihr Einfluss auf die Besiedlung Mitteleuropas”, grant no. Al 287/10-1) aimed at elucidating the population history of the Carpathian Basin during the Neolithic. The Carpathian Basin was an important waypoint on the spread of the Neolithic from southeastern to central Europe. On the Great Hungarian Plain (Alföld), the first farming communities appeared around 6000 cal BC. They belonged to the Körös culture, which derived from the Starčevo-Körös-Criş complex in the northern Balkans. Around 5600 cal BC the Alföld-Linearbandkeramik (ALBK), so called due to its stylistic similarities with the Transdanubian and central European LBK, emerged in the northwestern Alföld. Following a short “classical phase”, the ALBK split into several regional subgroups during its later stages, but did not expand beyond the Great Hungarian Plain. Marking the beginning of the late Neolithic period, the Tisza culture first appeared in the southern Alföld around 5000 cal BC and subsequently spread into the central and northern Alföld. Together with the Herpály and Csőszhalom groups it was an integral part of the late Neolithic cultural landscape of the Alföld. Up until now, the Neolithic cultural succession on the Alföld has been almost exclusively studied from an archaeological point of view, while very little is known about the population genetic processes during this time period. The aim of this thesis was to perform ancient DNA (aDNA) analyses on human samples from the Alföld Neolithic and analyse the resulting mitochondrial population data to address the following questions: is there population continuity between the Central European Mesolithic hunter-gatherer metapopulation and the first farming communities on the Alföld? Is there genetic continuity from the early to the late Neolithic? Are there genetic as well as cultural differences between the regional groups of the ALBK? Additionally, the relationships between the Alföld and the neighbouring Transdanubian Neolithic as well as other European early farming communities were evaluated to gain insights into the genetic affinities of the Alföld Neolithic in a larger geographic context. 320 individuals were analysed for this study; reproducible mitochondrial haplogroup information (HVS-I and/or SNP data) could be obtained from 242 Neolithic individuals. According to the analyses, population continuity between hunter-gatherers and the Neolithic cultures of the Alföld can be excluded at any stage of the Neolithic. In contrast, there is strong evidence for population continuity from the early to the late Neolithic. All cultural groups on the Alföld were heavily shaped by the genetic substrate introduced into the Carpathian Basin during the early Neolithic by the Körös and Starčevo cultures. Accordingly, genetic differentiation between regional groups of the ALBK is not very pronounced. The Alföld cultures are furthermore genetically highly similar to the Transdanubian Neolithic cultures, probably due to common ancestry. In the wider European context, the Alföld Neolithic cultures also highly similar to the central European LBK, while they differ markedly from contemporaneous populations of the Iberian Peninsula and the Ukraine. Thus, the Körös culture, the ALBK and the Tisza culture can be regarded as part of a “genetic continuum” that links the Neolithic Carpathian Basin to central Europe and likely has its roots in the Starčevo -Körös-Criş complex of the northern Balkans.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magnetic memories are a backbone of today's digital data storage technology, where the digital information is stored as the magnetic configuration of nanostructured ferromagnetic bits. Currently, the writing of the digital information on the magnetic memory is carried out with the help of magnetic fields. This approach, while viable, is not optimal due to its intrinsically high energy consumption and relatively poor scalability. For this reason, the research for different mechanisms that can be used to manipulate the magnetic configuration of a material is of interest. In this thesis, the control of the magnetization of different nanostructured materials with field-free mechanisms is investigated. The magnetic configuration of these nanostructured materials was imaged directly with high resolution x-ray magnetic microscopy. rnFirst of all, the control of the magnetic configuration of nanostructured ferromagnetic Heusler compounds by fabricating nanostructures with different geometries was analyzed. Here, it was observed that the magnetic configuration of the nanostructured elements is given by the competition of magneto-crystalline and shape anisotropy. By fabricating elements with different geometries, we could alter the point where these two effects equilibrate, allowing for the possibility to tailor the magnetic configuration of these nanostructured elements to the required necessities.rnThen, the control of the magnetic configuration of Ni nanostructures fabricated on top of a piezoelectric material with the magneto-elastic effect (i.e. by applying a piezoelectric strain to the Ni nanostructures) was investigated. Here, the magneto-elastic coupling effect gives rise to an additional anisotropy contribution, proportional to the strain applied to the magnetic material. For this system, a reproducible and reversible control of the magnetic configuration of the nanostructured Ni elements with the application of an electric field across the piezoelectric material was achieved.rnFinally, the control of the magnetic configuration of La0.7Sr0.3MnO3 (LSMO) nanostructures with spin-polarized currents was studied. Here, the spin-transfer torque effect was employed to achieve the displacement of magnetic domain walls in the LSMO nanostructures. A high spin-transfer torque efficiency was observed for LSMO at low temperatures, and a Joule-heating induced hopping of the magnetic domain walls was observed at room temperatures, allowing for the analysis of the energetics of the domain walls in LSMO.rnThe results presented in this thesis give thus an overview on the different field-free approaches that can be used to manipulate and tailor the magnetization configuration of a nanostructured material to the various technological requirements, opening up novel interesting possibilities for these materials.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der zunehmende Anteil von Strom aus erneuerbaren Energiequellen erfordert ein dynamisches Konzept, um Spitzenlastzeiten und Versorgungslücken aus der Wind- und Solarenergie ausgleichen zu können. Biogasanlagen können aufgrund ihrer hohen energetischen Verfügbarkeit und der Speicherbarkeit von Biogas eine flexible Energiebereitstellung ermöglichen und darüber hinaus über ein „Power-to-Gas“-Verfahren bei einem kurzzeitigen Überschuss von Strom eine Überlastung des Stromnetzes verhindern. Ein nachfrageorientierter Betrieb von Biogasanlagen stellt jedoch hohe Anforderungen an die Mikrobiologie im Reaktor, die sich an die häufig wechselnden Prozessbedingungen wie der Raumbelastung im Reaktor anpassen muss. Eine Überwachung des Fermentationsprozesses in Echtzeit ist daher unabdingbar, um Störungen in den mikrobiellen Gärungswegen frühzeitig erkennen und adäquat entgegenwirken zu können. rnBisherige mikrobielle Populationsanalysen beschränken sich auf aufwendige, molekularbiologische Untersuchungen des Gärsubstrates, deren Ergebnisse dem Betreiber daher nur zeitversetzt zur Verfügung stehen. Im Rahmen dieser Arbeit wurde erstmalig ein Laser-Absorptionsspektrometer zur kontinuierlichen Messung der Kohlenstoff-Isotopenverhältnisse des Methans an einer Forschungsbiogasanlage erprobt. Dabei konnten, in Abhängigkeit der Raumbelastung und Prozessbedingungen variierende Isotopenverhältnisse gemessen werden. Anhand von Isolaten aus dem untersuchten Reaktor konnte zunächst gezeigt werden, dass für jeden Methanogenesepfad (hydrogeno-troph, aceto¬klastisch sowie methylotroph) eine charakteristische, natürliche Isotopensignatur im Biogas nachgewiesen werden kann, sodass eine Identifizierung der aktuell dominierenden methanogenen Reaktionen anhand der Isotopen-verhältnisse im Biogas möglich ist. rnDurch den Einsatz von 13C- und 2H-isotopen¬markierten Substraten in Rein- und Mischkulturen und Batchreaktoren, sowie HPLC- und GC-Unter¬suchungen der Stoffwechselprodukte konnten einige bislang unbekannte C-Flüsse in Bioreaktoren festgestellt werden, die sich wiederum auf die gemessenen Isotopenverhältnisse im Biogas auswirken können. So konnte die Entstehung von Methanol sowie dessen mikrobieller Abbauprodukte bis zur finalen CH4-Bildung anhand von fünf Isolaten erstmalig in einer landwirtschaftlichen Biogasanlage rekonstruiert und das Vorkommen methylotropher Methanogenesewege nachgewiesen werden. Mithilfe molekularbiologischer Methoden wurden darüber hinaus methanoxidierende Bakterien zahlreicher, unbekannter Arten im Reaktor detektiert, deren Vorkommen aufgrund des geringen O2-Gehaltes in Biogasanlagen bislang nicht erwartet wurde. rnDurch die Konstruktion eines synthetischen DNA-Stranges mit den Bindesequenzen für elf spezifische Primerpaare konnte eine neue Methode etabliert werden, anhand derer eine Vielzahl mikrobieller Zielorganismen durch die Verwendung eines einheitlichen Kopienstandards in einer real-time PCR quantifiziert werden können. Eine über 70 Tage durchgeführte, wöchentliche qPCR-Analyse von Fermenterproben zeigte, dass die Isotopenverhältnisse im Biogas signifikant von der Zusammensetzung der Reaktormikrobiota beeinflusst sind. Neben den aktuell dominierenden Methanogenesewegen war es auch möglich, einige bakterielle Reaktionen wie eine syntrophe Acetatoxidation, Acetogenese oder Sulfatreduktion anhand der δ13C (CH4)-Werte zu identifizieren, sodass das hohe Potential einer kontinuierlichen Isotopenmessung zur Prozessanalytik in Biogasanlagen aufgezeigt werden konnte.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Krebs stellt eine der häufigsten Todesursachen in Europa dar. Grundlage für eine langfristige Verbesserung des Behandlungserfolgs ist ein molekulares Verständnis der Mechanismen, welche zur Krankheitsentstehung beitragen. In diesem Zusammenhang spielen Proteasen nicht nur eine wichtige Rolle, sondern stellen auch bei vielerlei Erkrankungen bereits anerkannte Zielstrukturen derzeitiger Behandlungsstrategien dar. Die Protease Threonin Aspartase 1 (Taspase1) spielt eine entscheidende Rolle bei der Aktivierung von Mixed Lineage Leukemia (MLL)-Fusionsproteinen und somit bei der Entstehung aggressiver Leukämien. Aktuelle Arbeiten unterstreichen zudem die onkologische Relevanz von Taspase1 auch für solide Tumore. Die Kenntnisse über die molekularen Mechanismen und Signalnetzwerke, welche für die (patho)biologischen Funktionen von Taspase1 verantwortlich sind, stellen sich allerdings noch immer als bruchstückhaft dar. Um diese bestehenden Wissenslücken zu schließen, sollten im Rahmen der Arbeit neue Strategien zur Inhibition von Taspase1 erarbeitet und bewertet werden. Zusätzlich sollten neue Einsichten in evolutionären Funktionsmechanismen sowie eine weitergehende Feinregulation von Taspase1 erlangt werden. Zum einen erlaubte die Etablierung und Anwendung eines zellbasierten Taspase1-Testsystem, chemische Verbindungen auf deren inhibitorische Aktivität zu testen. Überraschenderweise belegten solch zelluläre Analysen in Kombination mit in silico-Modellierungen eindeutig, dass ein in der Literatur postulierter Inhibitor in lebenden Tumorzellen keine spezifische Wirksamkeit gegenüber Taspase1 zeigte. Als mögliche Alternative wurden darüber hinaus Ansätze zur genetischen Inhibition evaluiert. Obwohl publizierte Studien Taspase1 als ααββ-Heterodimer beschreiben, konnte durch Überexpression katalytisch inaktiver Mutanten kein trans-dominant negativer Effekt und damit auch keine Inhibition des wildtypischen Enzyms beobachtet werden. Weiterführende zellbiologische und biochemische Analysen belegten erstmalig, dass Taspase1 in lebenden Zellen in der Tat hauptsächlich als Monomer und nicht als Dimer vorliegt. Die Identifizierung evolutionär konservierter bzw. divergenter Funktionsmechanismen lieferte bereits in der Vergangenheit wichtige Hinweise zur Inhibition verschiedenster krebsrelevanter Proteine. Da in Drosophila melanogaster die Existenz und funktionelle Konservierung eines Taspase1-Homologs postuliert wurde, wurde in einem weiteren Teil der vorliegenden Arbeit die evolutionäre Entwicklung der Drosophila Taspase1 (dTaspase1) untersucht. Obwohl Taspase1 als eine evolutionär stark konservierte Protease gilt, konnten wichtige Unterschiede zwischen beiden Orthologen festgestellt werden. Neben einem konservierten autokatalytischen Aktivierungsmechanismus besitzt dTaspase1 verglichen mit dem humanen Enzym eine flexiblere Substraterkennungs-sequenz, was zu einer Vergrößerung des Drosophila-spezifischen Degradoms führt. Diese Ergebnisse zeigen des Weiteren, dass zur Definition und Vorhersage des Degradoms nicht nur proteomische sondern auch zellbiologische und bioinformatische Untersuchungen geeignet und notwendig sind. Interessanterweise ist die differentielle Regulation der dTaspase1-Aktivität zudem auf eine veränderte intrazelluläre Lokalisation zurückzuführen. Das Fehlen von in Vertebraten hochkonservierten aktiven Kernimport- und nukleolären Lokalisationssignalen erklärt, weshalb dTaspase1 weniger effizient nukleäre Substrate prozessiert. Somit scheint die für die humane Taspase1 beschriebene Regulation von Lokalisation und Aktivität über eine Importin-α/NPM1-Achse erst im Laufe der Entwicklung der Vertebraten entstanden zu sein. Es konnte also ein bislang unbekanntes evolutionäres Prinzip identifiziert werden, über welches eine Protease einen Transport- bzw. Lokalisations-basierten Mechanismus zur Feinregulation ihrer Aktivität „von der Fliege zum Menschen“ nutzt. Eine weitere Möglichkeit zur dynamischen Funktionsmodulation bieten post-translationale Modifikationen (PTMs) der Proteinsequenz, zu welcher Phosphorylierung und Acetylierung zählen. Interessanterweise konnte für die humane Taspase1 über den Einsatz unabhängiger Methoden einschließlich massenspektrometrischer Analysen eine Acetylierung durch verschiedene Histon-Acetyltransferasen (HATs) nachgewiesen werden. Diese Modifikation erfolgt reversibel, wobei vor allem die Histon-Deacetylase HDAC1 durch Interaktion mit Taspase1 die Deacetylierung der Protease katalysiert. Während Taspase1 in ihrer aktiven Konformation acetyliert vorliegt, kommt es nach Deacetylierung zu einer Reduktion ihrer enzymatischen Aktivität. Somit scheint die Modulation der Taspase1-Aktivität nicht allein über intra-proteolytische Autoaktivierung, Transport- und Interaktionsmechanismen, sondern zudem durch post-translationale Modifikationen gesteuert zu werden. Zusammenfassend konnten im Rahmen dieser Arbeit entscheidende neue Einblicke in die (patho)biologische Funktion und Feinregulation der Taspase1 gewonnen werden. Diese Ergebnisse stellen nicht nur einen wichtigen Schritt in Richtung eines verbesserten Verständnis der „Taspase1-Biologie“, sondern auch zur erfolgreichen Inhibition und Bewertung der krebsrelevanten Funktion dieser Protease dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Three-dimensional electron microscopy (3-D EM) provides a framework for the analysis of large protein quaternary structures. The advantage over the generally higher resolving meth- od of X-ray crystallography is the embedding of the proteins in their physiological environ- ment. However, results of the two methods can be combined to obtain superior structural information. In this work, three different protein types – (i) Myriapod hemocyanin, (ii) vesi- cle-inducing protein in plastids 1 (Vipp1) and (iii) acetylcholine-binding protein (AChBP) – were structurally analyzed by 2-D and 3-D EM and, where possible, functionally interpreted.rnMyriapod hemocyanins have been previously shown to be 6x6-meric assemblies that, in case of Scutigera coleoptrata hemocyanin (ScoHc), show two 3x6-mer planes whith a stag- gering angle of approximately 60°. Here, previously observed structural differences between oxy- and deoxy-ScoHc could be substantiated. A 4° rotation between hexamers of two dif- ferent 3x6-mer planes was measured, which originates at the most central inter-hexamer in- terface. Further information about allosteric behaviour in myriapod hemocyanin was gained by analyzing Polydesmus angustus hemocyanin (PanHc), which shows a stable 3x6-mer and divergent histidine patterns in the inter-hexamer interfaces when compared to ScoHc. Both findings would conclusively explain the very different oxygen binding properties of chilopod and diplopod hemocyanin.rnVipp1 is a protein found in cyanobacteria and higher plants which is essential for thyla- koid membrane function and forms highly variable ring-shaped structures. In the course of this study, the first 3-D analysis of Vipp1 was conducted and yielded reconstructions of six differently sized Vipp1 rings from negatively stained images at resolutions between 20 to 30 Å. Furthermore, mutational analyses identified specific N-terminal amino acids that are essential for ring formation. On the basis of these analyses and previously published results, a hypothetical model of the Vipp1 tertiary and quaternary structure was generated.rnAChBP is a water-soluble protein in the hemolymph of mollusks. It is a structural and functional homologue of the ligand-binding domain of nicotinic acetylcholine receptors. For the freshwater snail Biomphalaria glabrata, we previously described two types of AChBP (BgAChBP1 and BgAChBP2). In this work, a 6 Å 3-D reconstruction of native BgAChBP is presented, which shows a dodecahedral assembly that is unprecedented for an AChBP. Single particle analysis of recombinantely expressed BgAChBP types led to preliminary results show- ing a dodecahedral assembly of BgAChBP1 and a dipentameric assembly of BgAChBP2. This indicates divergent biological functions of the two types.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The identification of molecular processes involved in cancer development and prognosis opened avenues for targeted therapies, which made treatment more tumor-specific and less toxic than conventional therapies. One important example is the epidermal growth factor receptor (EGFR) and EGFR-specific inhibitors (i.e. erlotinib). However, challenges such as drug resistance still remain in targeted therapies. Therefore, novel candidate compounds and new strategies are needed for improvement of therapy efficacy. Shikonin and its derivatives are cytotoxic constituents in traditional Chinese herbal medicine Zicao (Lithospermum erythrorhizin). In this study, we investigated the molecular mechanisms underlying the anti-cancer effects of shikonin and its derivatives in glioblastoma cells and leukemia cells. Most of shikonin derivatives showed strong cytotoxicity towards erlotinib-resistant glioblastoma cells, especially U87MG.ΔEGFR cells which overexpressed a deletion-activated EGFR (ΔEGFR). Moreover, shikonin and some derivatives worked synergistically with erlotinib in killing EGFR-overexpressing cells. Combination treatment with shikonin and erlotinib overcame the drug resistance of these cells to erlotinib. Western blotting analysis revealed that shikonin inhibited ΔEGFR phosphorylation and led to corresponding decreases in phosphorylation of EGFR downstream molecules. By means of Loewe additivity and Bliss independence drug interaction models, we found erlotinb and shikonin or its derivatives corporately suppressed ΔEGFR phosphorylation. We believed this to be a main mechanism responsible for their synergism in U87MG.ΔEGFR cells. In leukemia cells, which did not express EGFR, shikonin and its derivatives exhibited even greater cytotoxicity, suggesting the existence of other mechanisms. Microarray-based gene expression analysis uncovered the transcription factor c-MYC as the commonly deregulated molecule by shikonin and its derivatives. As validated by Western blotting analysis, DNA-binding assays and molecular docking, shikonin and its derivatives bound and inhibited c-MYC. Furthermore, the deregulation of ERK, JNK MAPK and AKT activity was closely associated with the reduction of c-MYC, indicating the involvement of these signaling molecules in shikonin-triggered c-MYC inactivation. In conclusion, the inhibition of EGFR signaling, synergism with erlotinib and targeting of c-MYC illustrate the multi-targeted feature of natural naphthoquinones such as shikonin and derivatives. This may open attractive possibilities for their use in a molecular targeted cancer therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Different concepts for the synthesis of sulfur-containing polymers as well as their adsorption onto gold surfaces were studied. The present work is divided into three parts. The main part focuses on the synthesis of poly(1,2-alkylene sulfides) (“polysulfides”) with complex architectures on the basis of polyether-based macroinitiators by the anionic ring-opening polymerization of ethylene sulfide and propylene sulfide. This synthetic tool kit allowed the synthesis of star-shaped, brush-like, comb-like and pom-pom-like polysulfides, the latter two with an additional poly(ethylene glycol) chain. Additionally, the number of polysulfide arms as well as the monomer composition could be varied over a wide range to obtain copolymers with multiple thioether functionalities.rnThe second section deals with the synthesis of a novel lipoic acid-based initiator for ring-opening polymerizations for lactones and epoxides. A straightforward approach was selected to accomplish the ability to obtain tailored polymers with a common used disulfide-anchoring group, without the drawbacks of post-polymerization functionalization. rnIn the third part, a new class of block-copolymers consisting of polysulfides and polyesters were investigated. For the first time this approach enabled the use of hydroxyl-terminated poly(propylene sulfide) as macroinitiator for the synthesis of a second block.rnThe adsorption efficiency of those different polymer classes onto gold nanoparticles as well as gold rnsupports was studied via different methods.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit widmet sich der Untersuchung der photophysikalischen Prozesse, die in Mischungen von Elektronendonoren mit Elektronenakzeptoren zur Anwendung in organischen Solarzellen auftreten. Als Elektronendonoren werden das Copolymer PBDTTT-C, das aus Benzodithiophen- und Thienothiophene-Einheiten besteht, und das kleine Molekül p-DTS(FBTTh2)2, welches Silizium-überbrücktes Dithiophen, sowie fluoriertes Benzothiadiazol und Dithiophen beinhaltet, verwendet. Als Elektronenakzeptor finden ein planares 3,4:9,10-Perylentetracarbonsäurediimid-(PDI)-Derivat und verschiedene Fullerenderivate Anwendung. PDI-Derivate gelten als vielversprechende Alternativen zu Fullerenen aufgrund der durch chemische Synthese abstimmbaren strukturellen, optischen und elektronischen Eigenschaften. Das gewichtigste Argument für PDI-Derivate ist deren Absorption im sichtbaren Bereich des Sonnenspektrums was den Photostrom verbessern kann. Fulleren-basierte Mischungen übertreffen jedoch für gewöhnlich die Effizienz von Donor-PDI-Mischungen.rnUm den Nachteil der PDI-basierten Mischungen im Vergleich zu den entsprechenden Fulleren-basierten Mischungen zu identifizieren, werden die verschiedenen Donor-Akzeptor-Kombinationen auf ihre optischen, elektronischen und strukturellen Eigenschaften untersucht. Zeitaufgelöste Spektroskopie, vor allem transiente Absorptionsspektroskopie (TA), wird zur Analyse der Ladungsgeneration angewendet und der Vergleich der Donor-PDI Mischfilme mit den Donor-Fulleren Mischfilmen zeigt, dass die Bildung von Ladungstransferzuständen einen der Hauptverlustkanäle darstellt.rnWeiterhin werden Mischungen aus PBDTTT-C und [6,6]-Phenyl-C61-buttersäuremethylesther (PC61BM) mittels TA-Spektroskopie auf einer Zeitskala von ps bis µs untersucht und es kann gezeigt werden, dass der Triplettzustand des Polymers über die nicht-geminale Rekombination freier Ladungen auf einer sub-ns Zeitskala bevölkert wird. Hochentwickelte Methoden zur Datenanalyse, wie multivariate curve resolution (MCR), werden angewendet um überlagernde Datensignale zu trennen. Zusätzlich kann die Regeneration von Ladungsträgern durch Triplett-Triplett-Annihilation auf einer ns-µs Zeitskala gezeigt werden. Darüber hinaus wird der Einfluss des Lösungsmitteladditivs 1,8-Diiodooctan (DIO) auf die Leistungsfähigkeit von p-DTS(FBTTh2)2:PDI Solarzellen untersucht. Die Erkenntnisse von morphologischen und photophysikalischen Experimenten werden kombiniert, um die strukturellen Eigenschaften und die Photophysik mit den relevanten Kenngrößen des Bauteils in Verbindung zu setzen. Zeitaufgelöste Photolumineszenzmessungen (time-resolved photoluminescence, TRPL) zeigen, dass der Einsatz von DIO zu einer geringeren Reduzierung der Photolumineszenz führt, was auf eine größere Phasentrennung zurückgeführt werden kann. Außerdem kann mittels TA Spektroskopie gezeigt werden, dass die Verwendung von DIO zu einer verbesserten Kristallinität der aktiven Schicht führt und die Generation freier Ladungen fördert. Zur genauen Analyse des Signalzerfalls wird ein Modell angewendet, das den gleichzeitigen Zerfall gebundener CT-Zustände und freier Ladungen berücksichtigt und optimierte Donor-Akzeptor-Mischungen zeigen einen größeren Anteil an nicht-geminaler Rekombination freier Ladungsträger.rnIn einer weiteren Fallstudie wird der Einfluss des Fullerenderivats, namentlich IC60BA und PC71BM, auf die Leistungsfähigkeit und Photophysik der Solarzellen untersucht. Eine Kombination aus einer Untersuchung der Struktur des Dünnfilms sowie zeitaufgelöster Spektroskopie ergibt, dass Mischungen, die ICBA als Elektronenakzeptor verwenden, eine schlechtere Trennung von Ladungstransferzuständen zeigen und unter einer stärkeren geminalen Rekombination im Vergleich zu PCBM-basierten Mischungen leiden. Dies kann auf die kleinere Triebkraft zur Ladungstrennung sowie auf die höhere Unordnung der ICBA-basierten Mischungen, die die Ladungstrennung hemmen, zurückgeführt werden. Außerdem wird der Einfluss reiner Fullerendomänen auf die Funktionsfähigkeit organischer Solarzellen, die aus Mischungen des Thienothienophen-basierenden Polymers pBTTT-C14 und PC61BM bestehen, untersucht. Aus diesem Grund wird die Photophysik von Filmen mit einem Donor-Akzeptor-Mischungsverhältnis von 1:1 sowie 1:4 verglichen. Während 1:1-Mischungen lediglich eine co-kristalline Phase, in der Fullerene zwischen den Seitenketten von pBTTT interkalieren, zeigen, resultiert der Überschuss an Fulleren in den 1:4-Proben in der Ausbildung reiner Fullerendomänen zusätzlich zu der co kristallinen Phase. Transiente Absorptionsspektroskopie verdeutlicht, dass Ladungstransferzustände in 1:1-Mischungen hauptsächlich über geminale Rekombination zerfallen, während in 1:4 Mischungen ein beträchtlicher Anteil an Ladungen ihre wechselseitige Coulombanziehung überwinden und freie Ladungsträger bilden kann, die schließlich nicht-geminal rekombinieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Forschungsarbeit wird die Konkurrenz von Kristallisation und Verglasung in metastabilen kolloidalen Hart-Kugel(HK)-Modellsystemen mit dynamischer und zeitaufgelöster statischer Lichtstreuung untersucht. Durch gleichzeitige Messungen mit beiden Methoden an derselben Probe gelang es, mit hoher Genauigkeit und aussagekräftiger Statistik nachzuweisen, dass in beiden Systemklassen eine starke Korrelation der strukturellen und dynamischen Eigenschaften vorliegt und diese Korrelation zu quantifizieren. Ein zentraler Teil der Arbeit bestand in dem Aufbau einer geeigneten Lichtstreuanlage mit der erstmalig Messungen der Dynamik und der Struktur simultan an derselben nicht-ergodischen Probe durchgeführt werden konnten. Für die dynamische Lichtstreuung wurde ein Flächendetektor (CCD-Kamera) verwendet. In Kombination mit einer speziellen Detektionsoptik ermöglicht dies, die gleichzeitige Detektion von Streulicht aus unterschiedlichen Probenbereichen (Subensembles). Damit kann gleichzeitig die Dynamik in unterschiedlichen Subensembles mit einer Auflösung von 15,8x15,8µm2 untersucht werden. Die Lichtstreuanlage wurde ausführlich charakterisiert und ihre korrekte Funktionsweise mithilfe von Vergleichsmessungen an etablierten Lichtstreuanlagen bestätigt. Die zeitliche Entwicklung der Dynamik und der Struktur von metastabilen Proben wurde unterhalb, am und oberhalb des Glasübergangs quantifiziert. Dabei zeigte das untersuchte kolloidale HK-Modellsystem alle typischen Eigenschaften eines HK-Systems. Die kristallisierenden Proben zeigten das etablierte zweistufige Kristallisationsszenario mit entsprechender Kristallisationskinetik und die Glasproben zeigten das erwartete Alterungsverhalten. Bei dem zweistufigen Kristallisationsszenario kommt es zuerst zur Nukleation einer metastabilen Zwischenphase von sogenannten Precursorn. In einer zweiten Stufe bilden sich Kristallite innerhalb dieser Precursor. Durch Vergleich zwischen kristallisierenden und verglasenden Proben konnte auch während der Verglasung die Bildung von Precursorn beobachtet werden. Die Korrelation zwischen der Anzahl an Precursorn und der Partikeldynamik legt die Vermutung nahe, dass das immer noch unverstandene Phänomen der Alterung von Gläsern mit der Bildung von Precursorn zusammenhängt. Verhinderte Kristallisation führt zu einer starken Verlangsamung der Partikeldynamik. Die Partikeldynamik einer Probe am Glasübergang zeigt, dass die Probe vor Einsetzen der Kristallisation eine glasartige Dynamik aufwies. Dies legt die Vermutung nahe, dass einkomponentige kolloidale HK-Gläser den Gleichgewichtszustand (Kristall) auf langen Zeitskalen erreichen können. Durch die Untersuchung der Partikeldynamik von metastabilen Proben in einzelnen Subensembles konnte eine heterogene Verteilung der Partikeldynamik nachgewiesen werden. Es existieren Bereiche, in denen die Partikeldynamik schneller oder langsamer ist als in anderen Bereichen. Gleichzeitig zeigen die Messungen der strukturellen Eigenschaften, dass metastabile Proben auch heterogen bezüglich ihrer Struktur sind. Mithilfe dieser Messungen konnte die zeitliche Entwicklung des Anteils an langsamen Partikeln und des Anteils an Partikeln innerhalb von Objekten höherer Ordnung (Precursor/Kristallite) bestimmt werden. Es zeigte sich eine direkte Korrelation zwischen dem Anteil an langsamen Partikeln und dem Anteil an Partikeln in Objekten höherer Ordnung. Die Untersuchung der Dynamik und der Struktur in einzelnen Subensembles lieferte einen weiteren Hinweis darauf, dass Subensembles, in denen eine stärker ausgeprägte strukturelle Ordnung vorliegt, auch bevorzugt eine langsamere Partikeldynamik aufweisen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractDie wissenschaftsgeschichtliche Analyse einbandhistorischer Forschungsliteratur bietet einen kritischen Überblick zum Thema Buchschließen und Buchbeschläge, wie sie am abendländischen, als Holzdeckelband gearbeiteten Gebrauchseinband bis gegen Ende des 16. Jh. verwendet wurden. Die etwa 120 Jahre alte Forschungsliteratur wird auf Grund des spezifischen Erkenntnisinteresses der Autoren und ihrer politischen, wirtschaftlichen und kulturellen Standortgebundenheit systematisiert, so daß deutlich gemacht werden kann, welche Berufsgruppen und damit verbundene Fragestellungen die Erforschung des Themas Schließe und Beschlag im besonderen und die Einbandforschung im allgemeinen dominierten. Für eine zukünftige selbständige praxisorientierte sowie handwerks- und buchgeschichtliche Betrachtung des Themenkomplexes Buchschließe und -beschlag im Rahmen einbandwissenschaftlicher Forschung werden Aufgaben, Ziele und Methoden dargelegt. Ziel ist es, in einem interdisziplinären und internationalen Gemeinschaftswerk den Themenkomplex zu untersuchen und dessen Ergebnisse als Beitrag für die Lokalisierung und Datierung von Einbänden zu prüfen. Es werden fünf Methoden vorgestellt, ihre Grenzen diskutiert und die Notwendigkeit ihrer allseitigen Verknüpfung nahegelegt. Der Frage nach den Herstellern von Buchschließen und -beschlägen wird auf Grund neuer Quellenfunde und Analyse von Ständebüchern, Enzyklopädien, Sach- und Realwörterbüchern sowie Buchbinderfachbüchern am Beispiel des städtischen Raumes Nürnberg nachgegangen. Für dieses Zentrum eines hochdifferenzierten metallverarbeitenden Gewerbes und regen Buchbinder-handwerks im 15. und 16. Jh. kann wahrscheinlich gemacht werden, daß sich spätestens um die Mitte des 16. Jh. das sog. Klausurmachen als eine Spezialarbeit von den Tätigkeiten der Gürtler gelöst hatte und von einzelnen sog. Klausurmachern ausgeführt wurde; doch waren diese in keinem eigenen, der strengen städtischen Kontrolle unterstellten Handwerk organisiert. Noch vor Ablauf des 17. Jh. war die Handwerkstätigkeit des Klausurmachens dem sog. geschenkten Handwerk der Gürtler offiziell zugehörig. Als Quintessenz der Arbeit wird eine These zur Entwicklung der Buchschlie-ße am Gebrauchseinband des Mittelalters vorgestellt, die Ausgangspunkt für eine zukünftige Forschung sein kann.