136 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zunehmend mehr Menschen wünschen sich ein selbstbestimmtes Leben, neue Formen eines sozialen Miteinanders und mehr zwischenmenschliche Verbindlichkeit im Alltag. Die Möglichkeiten zur Mitsprache bei der Entwicklung und in der Organisation des alltäglichen Wohnens bleiben jedoch in der Regel nur einer kleinen Gruppe von BauherrInnen vorbehalten. Doch was ist mit jenen, die zwar gemeinschaftliche Lebensmodelle suchen, sich jedoch aufgrund ihrer Lebensplanung oder ihrer fnanziellen Situation nicht langfristig binden wollen oder können? Etwa siebzig Prozent der deutschen Haushalte mit geringem Einkommen wohnen zur Miete – viele von ihnen in anonymen Mietverhältnissen, in denen Wunsch und Wirklichkeit hinsichtlich einer guten und verlässlichen Nachbarschaft weit auseinander liegen. In der vorliegenden Arbeit gehe ich der Frage nach, wie nachbarschaftliches Wohnen in klassischen Mietshäusern organisiert werden kann. Welche Motivationen haben die BewohnerInnen? Wie kann unterstützend in die Entwicklung der Projekte eingegrifen werden? Wo liegen die natürlichen Grenzen des Konzeptes? Und wie kann verhindert werden, dass die Projekte nach einer euphorischen Phase des Neubaus oder der Sanierung entweder an inneren Widersprüchen oder an äußeren Zwängen scheitern? Als Forschungsansatz wählte ich eine Einzelfallstudie. Das Untersuchungsobjekt ist ein Mietshaus mit siebenundzwanzig Wohneinheiten und zweiundvierzig BewohnerInnen im Berliner Stadtteil Wedding. Ich habe das Projekt und die beteiligten Akteure während der Projektentwicklung, der Sanierungs- und der Wohnphase über einen Zeitraum von insgesamt zehn Jahren aktiv als Planer, Bewohner und Beobachter begleitet. Im Rahmen der Untersuchung wurden die unterschiedlichen Projektphasen, die Entwicklung des nachbarschaftlichen Miteinanders, sowie besondere Ereignisse in deren Verlauf beschrieben. Dabei wurden vor allem die eingesetzten Werkzeuge und Methoden, sowie wesentliche Faktoren, die zu der Entwicklung beigetragen haben, herausgestellt und analysiert. Anhand von Einzelinterviews, Gruppengesprächen und teilnehmenden Beobachtungen wurden die Wünsche, Bedürfnisse und Ängste der BewohnerInnen, sowie deren Auswirkungen auf das alltägliche Miteinander erfasst. Die Ergebnisse der Beobachtungen wurden interpretiert und abschließend in Empfehlungen zusammengefasst. Da sich das Projekt auch zehn Jahre nach der Gründung ständig weiter entwickelt, kann und soll in dieser Arbeit nur der Prozess beschrieben und analysiert, jedoch kein Endergebnis der Projektentwicklung präsentiert werden. Die vorliegende Studie soll vielmehr dazu beitragen, das Mietshausprojekt als alternatives Wohn- und Lebensmodell weiterzuentwickeln und zu seiner weiteren Verbreitung beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Kleine Immergrün (Vinca minor L.) aus der Familie der Apocynaceae ist in der Krautschicht sommergrüner Wälder Südeuropas heimisch, während es in weiten Teilen Mitteleuropas als wahrscheinlich von den Römern eingeführter, altetablierter Archäophyt gilt. Noch heute ist die Art als Kulturreliktzeiger häufig in der Umgebung ehemaliger römischer Tempel und mittelalterlicher Burgruinen zu finden. Zudem wird V. minor in zahlreichen Gartenformen kultiviert. In Teilen Nordamerikas wird der Chamaephyt hingegen als eingeführte, invasive Art eingestuft, die die einheimische Flora und Fauna bedroht. Da V. minor Stolonen bilden kann und in Mitteleuropa selten reife Samen beobachtet werden, wurde bislang vermutet, dass V. minor Bestände in Mitteleuropa sich rein asexuell erhalten. Diese Hypothese wurde aber bisher nie mit molekularen Methoden überprüft. Auch zur Populationsgenetik der Art ist bisher nichts bekannt. Aus diesen Gegebenheiten resultieren folgende Fragen: Wie hoch ist die genetische Diversität von V. minor im submediterranen Ursprungsgebiet im Vergleich zu Mitteleuropa und Nordamerika und wie ist sie in den Großregionen jeweils strukturiert? Korreliert die anthropogen bedingte Einführung mit einer genetischen Verarmung in Mitteleuropa? Gibt es in mitteleuropäischen und nordamerikanischen Populationen Hinweise auf sexuelle Reproduktion, oder erfolgt eine rein vegetative Vermehrung? Gibt es genetische Hinweise für Auswilderungen aus Gärten? Lassen sich die historischen Ausbreitungswege der Art von Süd- nach Mitteleuropa, innerhalb Mitteleuropas sowie nach Nordamerika rekonstruieren? Mikrosatellitenmarker stellen für populationsgenetische Analysen heute die weitaus gängigste Technik dar. Als codominante, locusspezifische Marker erlauben sie die präzise Erfassung populationsgenetischer Parameter zur Quantifizierung der genetischen Diversität und Struktur, die Abschätzung von Genfluss, und die Detektion von Klonen. Mikrosatelliten sind mit Hilfe neuer DNA-Sequenziertechniken (NGS) unproblematisch und kosteneffektiv isolierbar. Im Rahmen der hier vorliegenden Arbeit wurden daher zunächst nukleäre und plastidäre Mikrosatellitenmarker über NGS-454-Sequenzierung entwickelt. Etablierung von nukleären und plastidären Mikrosatellitenmarkern Zur Etablierung artspezifischer nukleärer Mikrosatellitenmarker wurden zwei Verfahren angewendet. Zum einen wurde in einer öffentlich zugänglichen, über 454-Sequenzierung der cDNA von V. minor gewonnene und im 'sequence read archive' von NCBI hinterlegte Datenbank (Akzessionsnummer SRX039641) nach Mikrosatelliten gesucht. Zum anderen wurde die 454-Technologie eingesetzt, um in Kooperation mit Dr. Bruno Huettel vom Max-Planck-Institut für Pflanzenzüchtung in Köln genomische Sequenzdaten anhand einer V. minor-Akzession zu generieren und aus diesen Mikrosatelliten zu etablieren. Eine Assemblierung der 723.230 cDNA-Sequenzen mit insgesamt 387 Mbp erzielte eine Reduzierung auf 267.199 Unigenes (267 Mbp), die der genomischen Sequenzen eine Reduzierung von 43.565 (18 Mbp) auf 24.886 Sequenzen (13,7 Mbp). Die assemblierten Datensätze enthielten 25.253 bzw. 1.371 Mikrosatellitenloci aus Mono- bis Hexa-Nukleotidmotiven. Die Effizienz der Assemblierung war somit v. a. bei den cDNA-Sequenzen gering. Da die Etablierung von Mikrosatellitenloci aber auch auf Basis redundanter Sequenzen möglich ist, sofern ein manueller Abgleich der selektierten Sequenzen erfolgt, wurde auf eine weitere Optimierung der Assemblierung verzichtet. Aus den so identifizierten Loci wurden 60 (cDNA) bzw. 35 (genomische DNA) Di-, Tri- und Tetranukleotidmotive selektiert, flankierende Primer synthetisiert und in umfangreichen Pilotstudien getestet. Jeweils neun der Loci erwiesen sich als robuste, polymorphe Marker. Die sieben vielversprechendsten Marker wurden schließlich für die populationsgenetische Untersuchung ausgewählt. Auch die Etablierung plastidärer Mikrosatellitenmarker erfolgte über zwei Ansätze. Zum einen wurde das Plastom von V. minor aus dem genomischen 454-Sequenzdatensatz rekonstruiert und auf das Vorhandensein von (A)n/(T)n-Wiederholungseinheiten hin untersucht. Für 14 der 17 dabei detektierten Loci konnten Primer entworfen werden. In einer Pilotstudie erwiesen sich vier der Loci als funktionelle, polymorphe Marker. Zusätzlich wurden die zehn universellen (ccmp) Primerpaare zur Amplifikation plastidärer Mikrosatellitenloci aus Weising & Gardner (1999) getestet, von denen zwei als funktionelle, polymorphe Marker für die Hauptstudie geeignet waren. Populationsgenetische und phylogeographische Analyse Ein Probenset aus insgesamt 967 Pflanzenproben aus 70 Populationen aus Mitteleuropa inkl. der Alpen, den Regionen südlich und westlich der Alpen sowie aus Kanada und 18 Cultivaren wurde mittels der sieben neu etablierten, artspezifischen nukleären Mikrosatellitenmarker populationsgenetisch untersucht. Dabei erwiesen sich 21 der 31 untersuchten Populationen südlich und westlich der Alpen als genetisch hoch divers, die übrigen 10 zeigten vor allem klonales Wachstum und wiesen jeweils ein bis drei Multilocus-Genotypen (MLGs) auf. In 30 der 36 mitteleuropäischen Vorkommen (inkl. der Alpen) sowie den kanadischen Beständen war jeweils nur ein einziger MLG präsent. Drei der Vorkommen zeigten mit einem Heterozygotendefizit einzelner Stichproben Hinweise auf Geitonogamie, an drei weiteren Vorkommen traten jeweils zwei sowohl hinsichtlich der Blütenfarbe und -architektur als auch des MLG unterschiedliche Linien auf. An einem dieser Vorkommen wurde ein Hybrid-Genotyp detektiert, bisher der einzige molekulare Hinweis auf sexuelle Reproduktion im engeren Sinn in Mitteleuropa. Die 967 Stichproben konnten insgesamt 310 individuellen Multilocus-Genotypen (MLGs) zugeordnet werden. Davon traten 233 MLGs nur in jeweils einer einzigen Probe auf, die 77 verbleibenden wurden in mehreren Akzessionen detektiert. Aus einer Simulation ging hervor, dass diese wiederholten MLGs auf rein asexuelle Reproduktion zurückzuführen sind. In Mitteleuropa waren lediglich 18 MLGs vertreten, von denen sieben an bis zu zehn, mehrere hundert Kilometer entfernten Fundorten auftraten. In Nordamerika gehören gar alle drei untersuchten Populationen dem gleichen Klon an. In Mitteleuropa traten in zwei Fällen somatische Mutationen zwischen zwei MLGs auf, sodass diese zu klonalen Linien (Multilocus-Linien; MLL) zusammengefasst werden konnten. Sieben der 18 Cultivare weisen einen zu diversen Freilandvorkommen identischen Genotypen auf. Die Ergebnisse reflektieren den durch die anthropogene Selektion bedingten genetischen Flaschenhalseffekt, in dessen Folge der Genpool von Vinca minor in Mitteleuropa gegenüber der südeuropäischen Heimat der Art stark reduziert wurde. Sexuelle Reproduktion in Mitteleuropa zwischen zwei genetisch unterschiedlichen Individuen ist nur an wenigen Standorten überhaupt möglich und da meist nur ein Klon am gleichen Fundort auftritt, sehr selten. Die Ausbreitung erfolgt zudem rein anthropogen und über erhebliche Strecken, wie die identischen MLGs an unterschiedlichen, weit auseinander liegenden Fundorten belegen. Südlich und westlich der Alpen hingegen ist sexuelle Reproduktion über Samen häufig. Aus den kalkulierten Neighbour-Joining Phenogrammen, Neighbour-Nets und der Bayes'schen Analyse ergibt sich prinzipiell eine Abtrennung der in Norditalien und Slowenien gelegenen Vorkommen von den übrigen Regionen, wohingegen mehrere mittelitalienische Populationen mit denen westlich der Alpen und den mitteleuropäischen Vorkommen in einer engeren genetischen Beziehung stehen. Da die mittelitalienischen Vorkommen jedoch Anzeichen anthropogenen Ursprungs aufweisen (Monoklonalität, Lage an Wegrändern oder Burgen), lassen sich diese Populationen nur bedingt als potentielle Ursprungspopulationen ableiten. Die genetisch diversen norditalienischen und slowenischen Populationen sind trotz der Fragmentierung der norditalienischen Waldvegetation insgesamt nur moderat voneinander differenziert (FST=0,14, GST=0,17, RST=0,19). Die AMOVA ergab, dass über 80 % der genetischen Variation auf Variation innerhalb der Populationen zurückzuführen ist. Dennoch ergab sich aus einem Mantel-Test eine zunehmende genetische Differenzierung mit zunehmender geographischer Distanz (r=0,59). Die phylogeographische Analyse wurde mit Hilfe von vier plastidären Mikrosatellitenmarkern aus der 454-Sequenzierung und zwei universellen plastidären ccmp-Mikrosatellitenloci durchgeführt. Untersucht wurden jeweils eine bis sechs Stichproben aus den o. g. 70 Populationen, die 18 Cultivare sowie zusätzliche Einzelproben aus mehreren Ländern, deren DNA aus Herbarbelegen isoliert wurde. Insgesamt wurden 297 Proben untersucht. Unter diesen wurden in der phylogeographischen Analyse sieben plastidäre Haplotypen detektiert. In der Region südlich der Alpen traten sechs Haplotypen auf (H1 bis H5, H7), in Mitteleuropa vier Haplotypen (H1 bis H3, H6), in Nordamerika, Großbritannien, Schweden und Nordamerika trat hingegen nur ein einziger Haplotyp H1 auf. Die beiden häufigsten Haplotypen nahmen im berechneten Haplotypen-Netzwerk periphere Positionen ein und waren durch sieben Mutationschritte voneinander getrennt. Südlich der Alpen ergab sich jedoch keine klare geographische Verteilung der Haplotypen. Auch die plastidären Daten indizieren somit eine geringere genetische Diversität in den Gebieten, wo V. minor eingeführt wurde. Der geographische Ursprung der mitteleuropäischen Vorkommen in Südeuropa konnte nicht abschließend geklärt werden, jedoch lässt das Vorkommen von zwei weit entfernten Haplotypen den Schluss zu, dass Vinca minor mindestens zweimal (und vermutlich mehrfach) unabhängig in Mitteleuropa eingeführt wurde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research of this thesis dissertation covers developments and applications of short-and long-term climate predictions. The short-term prediction emphasizes monthly and seasonal climate, i.e. forecasting from up to the next month over a season to up to a year or so. The long-term predictions pertain to the analysis of inter-annual- and decadal climate variations over the whole 21st century. These two climate prediction methods are validated and applied in the study area, namely, Khlong Yai (KY) water basin located in the eastern seaboard of Thailand which is a major industrial zone of the country and which has been suffering from severe drought and water shortage in recent years. Since water resources are essential for the further industrial development in this region, a thorough analysis of the potential climate change with its subsequent impact on the water supply in the area is at the heart of this thesis research. The short-term forecast of the next-season climate, such as temperatures and rainfall, offers a potential general guideline for water management and reservoir operation. To that avail, statistical models based on autoregressive techniques, i.e., AR-, ARIMA- and ARIMAex-, which includes additional external regressors, and multiple linear regression- (MLR) models, are developed and applied in the study region. Teleconnections between ocean states and the local climate are investigated and used as extra external predictors in the ARIMAex- and the MLR-model and shown to enhance the accuracy of the short-term predictions significantly. However, as the ocean state – local climate teleconnective relationships provide only a one- to four-month ahead lead time, the ocean state indices can support only a one-season-ahead forecast. Hence, GCM- climate predictors are also suggested as an additional predictor-set for a more reliable and somewhat longer short-term forecast. For the preparation of “pre-warning” information for up-coming possible future climate change with potential adverse hydrological impacts in the study region, the long-term climate prediction methodology is applied. The latter is based on the downscaling of climate predictions from several single- and multi-domain GCMs, using the two well-known downscaling methods SDSM and LARS-WG and a newly developed MLR-downscaling technique that allows the incorporation of a multitude of monthly or daily climate predictors from one- or several (multi-domain) parent GCMs. The numerous downscaling experiments indicate that the MLR- method is more accurate than SDSM and LARS-WG in predicting the recent past 20th-century (1971-2000) long-term monthly climate in the region. The MLR-model is, consequently, then employed to downscale 21st-century GCM- climate predictions under SRES-scenarios A1B, A2 and B1. However, since the hydrological watershed model requires daily-scale climate input data, a new stochastic daily climate generator is developed to rescale monthly observed or predicted climate series to daily series, while adhering to the statistical and geospatial distributional attributes of observed (past) daily climate series in the calibration phase. Employing this daily climate generator, 30 realizations of future daily climate series from downscaled monthly GCM-climate predictor sets are produced and used as input in the SWAT- distributed watershed model, to simulate future streamflow and other hydrological water budget components in the study region in a multi-realization manner. In addition to a general examination of the future changes of the hydrological regime in the KY-basin, potential future changes of the water budgets of three main reservoirs in the basin are analysed, as these are a major source of water supply in the study region. The results of the long-term 21st-century downscaled climate predictions provide evidence that, compared with the past 20th-reference period, the future climate in the study area will be more extreme, particularly, for SRES A1B. Thus, the temperatures will be higher and exhibit larger fluctuations. Although the future intensity of the rainfall is nearly constant, its spatial distribution across the region is partially changing. There is further evidence that the sequential rainfall occurrence will be decreased, so that short periods of high intensities will be followed by longer dry spells. This change in the sequential rainfall pattern will also lead to seasonal reductions of the streamflow and seasonal changes (decreases) of the water storage in the reservoirs. In any case, these predicted future climate changes with their hydrological impacts should encourage water planner and policy makers to develop adaptation strategies to properly handle the future water supply in this area, following the guidelines suggested in this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biogasgüllen haben bezüglich ihrer Wirkung auf die Bodenfruchtbarkeit, das Pflanzenwachstum und die Umwelt, Vor- und Nachteile. Als Folge der intensiven Nutzung von Biogas zur Energieerzeugung wurde die Biogasgülle eine der wichtigsten organischen Dünger, mit zunehmender Relevanz für den konventionellen aber auch den ökologischen Landbau. Aufgrund der frühen Entwicklung von Biogas und dem Einsatz von Biogasgüllen in der ökologischen Landwirtschaft in den achtziger Jahren im Nord-Osten Baden-Württembergs sind heute Ackerflächen vorhanden, die seit mehr als 25 Jahren mit Biogasgülle gedüngt werden. Somit bestand hier eine Möglichkeit, Informationen über die Langzeiteffekte von Biogasgüllen auf Parameter der Bodenfruchtbarkeit in der ökologischen, landwirtschaftlichen Praxis zu erlangen. Im ersten Projekt wurde daher eine On-Farm Boden- und Gülleprobenahme durchgeführt. Ziel war es, Parameter der Bodenfruchtbarkeit wie die mikrobielle Aktivität (Basalatmung), den mikrobiellen Biomasse C und N, pilzliches Ergosterol, mikrobielle Residuen (Aminozucker), organischen C, gesamt N und den pH-Wert im Boden auf fünf Flächenpaaren des biologisch-dynamischen Landbaus zu messen. Die sich daraus ergebende Hypothese war hierbei, dass der langjährige Einsatz von Biogasgülle im Vergleich zu Rohgüllen keinen Effekt auf die organische Bodensubstanz und die mikrobiellen Eigenschaften des Bodens hat, da die negativen Effekte wie zum Beispiel der reduzierte C-Input durch positive Effekte wie z.B. die erhöhte Nährstoffverfügbarkeit für Pflanzen kompensiert wird. Die Ergebnisse zeigten, dass die Langzeitanwendung von Biogasgülle keinen negativen Einfluss auf die C- und N-Vorräte im Boden hatte. Der Einsatz von Biogasgülle führte jedoch zu einem engeren Verhältnis von mikrobiellem C zu organischem C im Boden, was auf eine reduzierte C-Verfügbarkeit für Mikroorganismen im Vergleich zu Rohgüllen schließen lässt. Die Biogasgülleanwendung führte zu einer tendenziellen Abnahme der mikrobiellen Residuen, wobei die unterschiedlichen Tongehalte der untersuchten Flächen mögliche signifikante Gülleeffekte auf die mikrobiellen Eigenschaften verdeckt haben. Es gab keine generellen Effekte der Biogasgülle auf das Verhältnis von Pilzen zu Bakterien, wohingegen ein zunehmender Tongehalt eine signifikante Verlagerung in Richtung der Bakterien verursachte. Die Übereinstimmung der erhobenen Daten aller angewendeten Methoden weist auf die starke Aussagekraft dieser On-Farm Studie zum Vergleich benachbarter Flächen hin. Im Anschluss an das On-Farm Projekt, in dem die Langzeitwirkung von Biogasgülle auf den Boden untersucht wurde, sollten die Auswirkungen der Düngung mit unterschiedlichen Biogas-und Rohgüllen unter kontrollierten Bedingungen geprüft werden. Daher wurde ein 70-tägiger Gewächshausversuch mit den Güllen der biologisch-dynamischen Betriebe auf einem tonigen Schluff und unter Weidelgras (Lolium multiflorum, var. Ligrande) durchgeführt. Ziel war es, die Effekte unterschiedlicher Güllen auf das Pflanzenwachstum und die mikrobiellen Eigenschaften im Boden und an Wurzeln zu untersuchen. Die Düngung erhöhte die durchschnittliche oberirdische Pflanzenbiomasse um 69% unter Biogasgülle und um 36% unter Rohgülle im Vergleich zur ungedüngten Kontrolle. Zwischen der oberirdischen Biomasse und dem zugeführten NH4-N wurde ein stark linearer Zusammenhang festgestellt. Im Gegensatz zu den Biogasgüllen gab es unter den Rohgüllen einen signifikanten Anstieg des mikrobiellen Biomasse C und N um etwa 25% verglichen zur ungedüngten Kontrollvariante. Der Einsatz von Biogasgüllen führte gegenüber der Rohgülle und Kontrolle zu geringeren Ergosterolgehalten im Boden, was ein engeres Verhältnis von Ergosterol zu mikrobieller Biomasse C zur Folge hatte. Bezogen auf die Wurzeltrockenmasse verringerte die Düngung die Konzentrationen der Aminozucker Muraminsäure, Galaktosamin und Glukosamin um 24, 29 und 37%, gleichzeitig wurde jedoch kein Einfluss auf die Ergosterolgehalte festgestellt. Dies war höchstwahrscheinlich Folge der reduzierten Kolonisierung mit arbuskulärer Mykorrhiza in Gegenwart ausreichend verfügbarer Pflanzennährstoffen. Um einen Eindruck über die mikrobielle Biomasse und die mikrobielle Gemeinschaft in Biogas- und Rohgüllen zu bekommen, wurde ein drittes Projekt durchgeführt. Die von den 6 biologisch-dynamischen Betrieben erhaltenen Güllen wurden auf ihre Ergosterol- und Aminozuckerkonzentrationen untersucht. Hierbei entstand eine zuverlässige und präzise Methode zur Bestimmung von Ergosterol in Biogas- und Roghüllen. Die Biogasgüllen enthielten signifikant geringere Konzentrationen an Ergosterol (-34%), MurN (-42%), GalN (-32%) und pilzlichem GlcN (-40%) im Vergleich zu den Rohgüllen. Die durchschnittlichen Verhältnisse von pilzlichem GlcN zu Ergosterol (50) und pilzlichem C zu bakteriellem C (0.29) zeigten keine signifikanten Unterschiede zwischen den Gülletypen. Die durchschnittliche Konzentration von mikrobiellem C war in Biogasgülle signifikant geringer als in Rohgülle. Demzufolge lag der Anteil des mikrobiellen C am organischen C bei 3.6% in den Biogasgüllen und 5.7% in den Rohgüllen. Zwischen dem mikrobiellen C der Güllen und deren Faser- und Aschegehalte, sowie den pH-Werten und den CN Verhältnissen konnten nicht-lineare Zusammenhänge festgestellt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Auslegung von Trocknungsprozessen empfindlicher biologischer Güter spielt die Produktqualität eine zunehmend wichtige Rolle. Obwohl der Einfluss der Trocknungsparameter auf die Trocknungskinetik von Äpfeln bereits Gegenstand vieler Studien war, sind die Auswirkungen auf die Produktqualität bisher kaum bekannt. Die Untersuchung dieses Sachverhalts und die Entwicklung geeigneter Prozessstrategien zur Verbesserung der Qualität des resultierenden Produkts, waren das Ziel der vorliegenden Arbeit. In einem ersten Schritt wurden zunächst umfangreiche stationäre Grundlagenversuche durchgeführt, die zeigten, dass eine Lufttemperatur im höheren Bereich, eine möglichst hohe Luftgeschwindigkeit und eine niedrige Taupunkttemperatur zur geringsten Trocknungszeit bei gleichzeitig guter optischer Qualität führt. Die Beurteilung dieser Qualitätsveränderungen erfolgte mit Hilfe einer neu eingeführten Bezugsgröße, der kumulierten thermischen Belastung, die durch das zeitliche Integral über der Oberflächentemperatur repräsentiert wird und die Vergleichbarkeit der Versuchsergebnisse entscheidend verbessert. Im zweiten Schritt wurden die Ergebnisse der Einzelschichtversuche zur Aufstellung eines numerischen Simulationsmodells verwendet, welches sowohl die entsprechenden Transportvorgänge, als auch die Formveränderung des Trocknungsgutes berücksichtigt. Das Simulationsmodell sowie die experimentellen Daten waren die Grundlage zur anschließenden Entwicklung von Prozessstrategien für die konvektive Trocknung von Äpfeln, die die resultierende Produktqualität, repräsentiert durch die Produktfarbe und –form, verbessern und gleichzeitig möglichst energieeffizient sein sollten. In einem weiteren Schritt wurde die Übertragbarkeit auf den industriellen Maßstab untersucht, wobei die entsprechenden Prozessstrategien an einer neu entwickelten, kostengünstigen Trocknungsanlage erfolgreich implementiert werden konnten. Das Ziel einer verbesserten Produktqualität konnte mit Hilfe unterschiedlicher instationärer Trocknungsschemata sowohl am Einzelschichttrockner, als auch im größeren Maßstab erreicht werden. Das vorgestellte numerische Simulationsmodell zeigte auch bei der Vorhersage des instationären Trocknungsprozesses eine hohe Genauigkeit und war außerdem in der Lage, den Trocknungsverlauf im industriellen Maßstab zuverlässig voraus zu berechnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Short summary: This study was undertaken to assess the diversity of plant resources utilized by the local population in south-western Madagascar, the social, ecological and biophysical conditions that drive their uses and availability, and possible alternative strategies for their sustainable use in the region. The study region, ‘Mahafaly region’, located in south-western Madagascar, is one of the country’s most economically, educationally and climatically disadvantaged regions. With an arid steppe climate, the agricultural production is limited by low water availability and a low level of soil nutrients and soil organic carbon. The region comprises the recently extended Tsimanampetsotsa National Park, with numerous sacred and communities forests, which are threatened by slash and burn agriculture and overexploitation of forests resources. The present study analyzed the availability of wild yams and medicinal plants, and their importance for the livelihood of the local population in this region. An ethnobotanical survey was conducted recording the diversity, local knowledge and use of wild yams and medicinal plants utilized by the local communities in five villages in the Mahafaly region. 250 households were randomly selected followed by semi-structured interviews on the socio-economic characteristics of the households. Data allowed us to characterize sociocultural and socioeconomic factors that determine the local use of wild yams and medicinal plants, and to identify their role in the livelihoods of local people. Species-environment relationships and the current spatial distribution of the wild yams were investigated and predicted using ordination methods and a niche based habitat modelling approach. Species response curves along edaphic gradients allowed us to understand the species requirements on habitat conditions. We thus investigated various alternative methods to enhance the wild yam regeneration for their local conservation and their sustainable use in the Mahafaly region. Altogether, six species of wild yams and a total of 214 medicinal plants species from 68 families and 163 genera were identified in the study region. Results of the cluster and discriminant analysis indicated a clear pattern on resource, resulted in two groups of household and characterized by differences in livestock numbers, off-farm activities, agricultural land and harvests. A generalized linear model highlighted that economic factors significantly affect the collection intensity of wild yams, while the use of medicinal plants depends to a higher degree on socio-cultural factors. The gradient analysis on the distribution of the wild yam species revealed a clear pattern for species habitats. Species models based on NPMR (Nonparametric Multiplicative Regression analysis) indicated the importance of vegetation structure, human interventions, and soil characteristics to determine wild yam species distribution. The prediction of the current availability of wild yam resources showed that abundant wild yam resources are scarce and face high harvest intensity. Experiments on yams cultivation revealed that germination of seeds was enhanced by using pre-germination treatments before planting, vegetative regeneration performed better with the upper part of the tubers (corms) rather than the sets of tubers. In-situ regeneration was possible for the upper parts of the wild tubers but the success depended significantly on the type of soil. The use of manure (10-20 t ha¹) increased the yield of the D. alata and D. alatipes by 40%. We thus suggest the promotion of other cultivated varieties of D. alata found regions neighbouring as the Mahafaly Plateau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In composite agricultural materials such as grass, tee, medicinal plants; leaves and stems have a different drying time. By this behavior, after leaving the dryer, the stems may have greater moisture content than desired, while the leaves one minor, which can cause either the appearance of fungi or the collapse of the over-dried material. Taking into account that a lot of grass is dehydrated in forced air dryers, especially rotary drum dryers, this research was developed in order to establish conditions enabling to make a separation of the components during the drying process in order to provide a homogeneous product at the end. For this, a rotary dryer consisting of three concentric cylinders and a circular sieve aligned with the more internal cylinder was proposed; so that, once material enters into the dryer in the area of the inner cylinder, stems pass through sieve to the middle and then continue towards the external cylinder, while the leaves continue by the inner cylinder. For this project, a mixture of Ryegrass and White Clover was used. The characteristics of the components of a mixture were: Drying Rate in thin layer and in rotation, Bulk density, Projected Area, Terminal velocity, weight/Area Ratio, Flux through Rotary sieve. Three drying temperatures; 40°C, 60° C and 80° C, and three rotation speeds; 10 rpm, 20 rpm and 40 rpm were evaluated. It was found that the differences in drying time are the less at 80 °C when the dryer rotates at 40 rpm. Above this speed, the material adheres to the walls of the dryer or sieve and does not flow. According to the measurements of terminal velocity of stems and leaves of the components of the mixture, the speed of the air should be less than 1.5 m s-1 in the inner drum for the leaves and less than 4.5 m s-1 in middle and outer drums for stems, in such way that only the rotational movement of the dryer moves the material and achieves a greater residence time. In other hand, the best rotary sieve separation efficiencies were achieved when the material is dry, but the results are good in all the moisture contents. The best rotary speed of sieve is within the critical rotational speed, i.e. 20 rpm. However, the rotational speed of the dryer, including the sieve in line with the inner cylinder should be 10 rpm or less in order to achieve the greatest residence times of the material inside the dryer and the best agitation through the use of lifting flights. With a finite element analysis of a dryer prototype, using an air flow allowing speeds of air already stated, I was found that the best performance occurs when, through a cover, air enters the dryer front of the Middle cylinder and when the inner cylinder is formed in its entirety through a sieve. This way, air flows in almost equal amounts by both the middle and external cylinders, while part of the air in the Middle cylinder passes through the sieve towards the inner cylinder. With this, leaves do not adhere to the sieve and flow along drier, thanks to the rotating movement of the drums and the showering caused by the lifting flights. In these conditions, the differences in drying time are reduced to 60 minutes, but the residence time is higher for the stems than for leaves, therefore the components of the mixture of grass run out of the dryer with the same desired moisture content.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung des 1912 von Birkhoff eingeführten chromatischen Polynoms eines Graphen stellt bekanntlich ein NP-vollständiges Problem dar. Dieses gilt somit erst recht für die Verallgemeinerung des chromatischen Polynoms zum bivariaten chromatischen Polynom nach Dohmen, Pönitz und Tittmann aus dem Jahre 2003. Eine von Averbouch, Godlin und Makowsky 2008 vorgestellte Rekursionsformel verursacht durch wiederholte Anwendung im Allgemeinen einen exponentiellen Rechenaufwand. Daher war das Ziel der vorliegenden Dissertation, Vereinfachungen zur Berechnung des bivariaten chromatischen Polynoms spezieller Graphentypen zu finden. Hierbei wurden folgende Resultate erzielt: Für Vereinigungen von Sternen, für vollständige Graphen, aus welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken gelöscht wurden, für spezielle Splitgraphen und für vollständig partite Graphen konnten rekursionsfreie Gleichungen zur Berechnung des bivariaten chromatischen Polynoms mit jeweils linear beschränkter Rechenzeit gefunden werden. Weiterhin werden Möglichkeiten der Reduktion allgemeiner Splitgraphen, bestimmter bipartiter Graphen sowie vollständig partiter Graphen vorgestellt. Bei letzteren erweist sich eine hierbei gefundene Rekursionsformel durch eine polynomiell beschränkte Laufzeit als effektive Methode. Ferner konnte in einem Abschnitt zu Trennern in Graphen gezeigt werden, dass der Spezialfall der trennenden Cliquen, welcher im univariaten Fall sehr einfach ist, im bivariaten Fall sehr komplexe Methoden erfordert. Ein Zusammenhang zwischen dem bivariaten chromatischen Polynom und dem Matchingpolynom wurde für vollständige Graphen, welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken entnommen wurden, sowie für Bicliquen hergestellt. Die vorliegende Dissertation liefert darüber hinaus auch einige Untersuchungen zum trivariaten chromatischen Polynom, welches auf White (2011) zurückgeht und eine weitere Verallgemeinerung des bivariaten chromatischen Polynoms darstellt. Hierbei konnte gezeigt werden, dass dessen Berechnung selbst für einfache Graphentypen schon recht kompliziert ist. Dieses trifft sogar dann noch zu, wenn man die einzelnen Koeffizienten als bivariate Polynome abspaltet und einzeln berechnet. Abschließend stellt die Arbeit zu vielen Resultaten Implementierungen mit dem Computeralgebrasystem Mathematica bereit, welche zahlreiche Möglichkeiten zu eigenständigen Versuchen bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Epigenetik repräsentiert einen Teilbereich der Genetik, der sich mit Regulationsmechanismen befasst, welche Einfluss auf die Genexpression nehmen und dabei nicht auf Veränderungen in der DNA-Sequenz beruhen. Ein verbreiteter Mechanismus beruht auf der Kontrolle des Kondensationsgrades der DNA durch posttranslationale Modifizierung von Proteinen. Die Proteine können ein struktureller Bestandteil des Chromatins oder aber an dessen Etablierung und Aufrechterhaltung beteiligt sein. Heterochromatin Protein 1 (HP1) ist ein Schlüsselprotein bei der Bildung und Aufrechterhaltung heterochromatischer Strukturen. Zudem erfüllt es eine Reihe weiterer Funktionen und interagiert mit einer Vielzahl von Proteinen. In der vorliegenden Arbeit konnte gezeigt werden, dass die HP1-Homologe aus Dictyostelium discoideum umfangreich mit posttranslationalen Modifikationen versehen sind. Eine in der als Interaktionsdomäne bezeichneten Chromo-Shadow-Domäne gelegene Acetylierung steht zumindest in HcpB im Zusammenhang mit der Bildung von Heterochromatin. Darüber hinaus konnte gezeigt werden, dass HcpB physisch mit der Histonmethyltransferase SuvA interagiert. Der Einfluss der oben genannten Acetylierung auf die Bildung von Heterochromatin könnte dabei sowohl auf der Kontrolle der Homo- bzw. Heterodimerisierung als auch auf der Kontrolle der Interaktion mit SuvA beruhen. Die hohe Konservierung von HP1-Proteinen führt zu der Frage, ob das humane Homolog HP1α die endogenen HP1-Homologe in Dictyostelium discoideum kompensieren kann. Während humanes HP1α in der Lage ist im Einzel-Knockout mit heterochromatischen Strukturen zu assoziieren scheint der Knockout des zweiten Homologes letal zu sein. Dies legt nahe, dass HP1α nur einen Teil der Funktionen übernehmen kann. Um Interaktionspartner von HcpA und HcpB zu bestimmen wurden mit bioinformatischen Methoden drei Proteine aus Dictyostelium als potentielle Komponenten des Chromatin Assembly Factor 1 (CAF1) identifiziert und untersucht. Vorhergehende Experimente aus anderen Arbeiten stützen die Annahme, dass es sich hierbei um Komponenten des Chromatin Assembly Factor 1 handelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.