688 resultados para Verfahren
Resumo:
In diesem Beitrag wird eine neue Methode zur Analyse des manuellen Kommissionierprozesses vorgestellt, mit der u. a. die Kommissionierzeitanteile automatisch erfasst werden können. Diese Methode basiert auf einer sensorgestützten Bewegungsklassifikation, wie sie bspw. im Sport oder in der Medizin Anwendung findet. Dabei werden mobile Sensoren genutzt, die fortlaufend Messwerte wie z. B. die Beschleunigung oder die Drehgeschwindigkeit des Kommissionierers aufzeichnen. Auf Basis dieser Daten können Informationen über die ausgeführten Bewegungen und insbesondere über die durchlaufenen Bewegungszustände gewonnen werden. Dieser Ansatz wird im vorliegenden Beitrag auf die Kommissionierung übertragen. Dazu werden zunächst Klassen relevanter Bewegungen identifiziert und anschließend mit Verfahren aus dem maschinellen Lernen verarbeitet. Die Klassifikation erfolgt nach dem Prinzip des überwachten Lernens. Dabei werden durchschnittliche Erkennungsraten von bis zu 78,94 Prozent erzielt.
Resumo:
Diese Arbeit beschäftigt sich mit nicht in Rechnung stellbaren Wasserverlusten in städtischen Versorgungsnetzen in Entwicklungsländern. Es soll das Wissen über diese Verluste erweitert und aufgezeigt werden, ob diese auf ein ökonomisch vertretbares Maß reduziert werden können. Die vorliegende Doktorarbeit untersucht solche unberechneten Wasserverluste und versucht, neben der Quantifizierung von Leckagen auch Entscheidungswerkzeuge für ein verbessertes Management der Versorgungsnetze in Entwicklungsländern zu erarbeiten. Als Fallstudie dient Harare, die Hauptstadt von Simbabwe. Wasserverluste in Verteilungsnetzen sind unvermeidbar, sollten aber auf ein ökonomisch tragbares Niveau reduziert werden, wenn ein nachhaltiger Betrieb erreicht werden soll. Wasserverluste können sowohl durch illegale und ungenehmigte Anschlüsse oder durch Undichtigkeiten im Verteilnetz, als auch durch mangelhafte Mess- und Berechnungssysteme entstehen. Es sind bereits viele Ansätze zur Verringerung von Verlusten in Wasserverteilsystemen bekannt geworden, entsprechend existieren dazu auch zahlreiche Methoden und Werkzeuge. Diese reichen von computergestützten Verfahren über gesetzliche und politische Vorgaben sowie ökonomische Berechnungen bis hin zu Maßnahmen der Modernisierung der Infrastruktur. Der Erfolg dieser Anstrengungen ist abhängig von der Umsetzbarkeit und dem Umfeld, in dem diese Maßnahmen durchgeführt werden. Die Bewertung der Arbeitsgüte einer jeden Wasserversorgungseinheit basiert auf der Effektivität des jeweiligen Verteilungssystems. Leistungs- und Bewertungszahlen sind die meist genutzten Ansätze, um Wasserverteilsysteme und ihre Effizienz einzustufen. Weltweit haben sich zur Bewertung als Indikatoren die finanzielle und die technische Leistungsfähigkeit durchgesetzt. Die eigene Untersuchung zeigt, dass diese Indikatoren in vielen Wasserversorgungssystemen der Entwicklungsländer nicht zur Einführung von Verlust reduzierenden Managementstrategien geführt haben. Viele durchgeführte Studien über die Einführung von Maßnahmen zur Verlustreduzierung beachten nur das gesamte nicht in Rechnung stellbare Wasser, ohne aber den Anteil der Leckagen an der Gesamthöhe zu bestimmen. Damit ist keine Aussage über die tatsächliche Zuordnung der Verluste möglich. Aus diesem Grund ist ein Bewertungsinstrument notwendig, mit dem die Verluste den verschiedenen Ursachen zugeordnet werden können. Ein solches Rechenwerkzeug ist das South African Night Flow Analysis Model (SANFLOW) der südafrikanischen Wasser-Forschungskommission, das Untersuchungen von Wasserdurchfluss und Anlagendruck in einzelnen Verteilbezirken ermöglicht. In der vorliegenden Arbeit konnte nachgewiesen werden, dass das SANFLOW-Modell gut zur Bestimmung des Leckageanteiles verwendet werden kann. Daraus kann gefolgert werden, dass dieses Modell ein geeignetes und gut anpassbares Analysewerkzeug für Entwicklungsländer ist. Solche computergestützte Berechnungsansätze können zur Bestimmung von Leckagen in Wasserverteilungsnetzen eingesetzt werden. Eine weitere Möglichkeit ist der Einsatz von Künstlichen Neuronalen Netzen (Artificial Neural Network – ANN), die trainiert und dann zur Vorhersage der dynamischen Verhältnisse in Wasserversorgungssystemen genutzt werden können. Diese Werte können mit der Wassernachfrage eines definierten Bezirks verglichen werden. Zur Untersuchung wurde ein Mehrschichtiges Künstliches Neuronales Netz mit Fehlerrückführung zur Modellierung des Wasserflusses in einem überwachten Abschnitt eingesetzt. Zur Bestimmung des Wasserbedarfes wurde ein MATLAB Algorithmus entwickelt. Aus der Differenz der aktuellen und des simulierten Wassernachfrage konnte die Leckagerate des Wasserversorgungssystems ermittelt werden. Es konnte gezeigt werden, dass mit dem angelernten Neuronalen Netzwerk eine Vorhersage des Wasserflusses mit einer Genauigkeit von 99% möglich ist. Daraus lässt sich die Eignung von ANNs als flexibler und wirkungsvoller Ansatz zur Leckagedetektion in der Wasserversorgung ableiten. Die Untersuchung zeigte weiterhin, dass im Versorgungsnetz von Harare 36 % des eingespeisten Wassers verloren geht. Davon wiederum sind 33 % auf Leckagen zurückzuführen. Umgerechnet bedeutet dies einen finanziellen Verlust von monatlich 1 Millionen Dollar, was 20 % der Gesamteinnahmen der Stadt entspricht. Der Stadtverwaltung von Harare wird daher empfohlen, aktiv an der Beseitigung der Leckagen zu arbeiten, da diese hohen Verluste den Versorgungsbetrieb negativ beeinflussen. Abschließend wird in der Arbeit ein integriertes Leckage-Managementsystem vorgeschlagen, das den Wasserversorgern eine Entscheidungshilfe bei zu ergreifenden Maßnahmen zur Instandhaltung des Verteilnetzes geben soll.
Resumo:
Das Verfahren der Lebensmitteltrocknung wird häufig angewendet, um ein Produkt für längere Zeit haltbar zu machen. Obst und Gemüse sind aufgrund ihres hohen Wassergehalts leicht verderblich durch biochemische Vorgänge innerhalb des Produktes, nicht sachgemäße Lagerung und unzureichende Transportmöglichkeiten. Um solche Verluste zu vermeiden wird die direkte Trocknung eingesetzt, welche die älteste Methode zum langfristigen haltbarmachen ist. Diese Methode ist jedoch veraltet und kann den heutigen Herausforderungen nicht gerecht werden. In der vorliegenden Arbeit wurde ein neuer Chargentrockner, mit diagonalem Luftstömungskanal entlang der Länge des Trocknungsraumes und ohne Leitbleche entwickelt. Neben dem unbestreitbaren Nutzen der Verwendung von Leitblechen, erhöhen diese jedoch die Konstruktionskosten und führen auch zu einer Erhöhung des Druckverlustes. Dadurch wird im Trocknungsprozess mehr Energie verbraucht. Um eine räumlich gleichmäßige Trocknung ohne Leitbleche zu erreichen, wurden die Lebensmittelbehälter diagonal entlang der Länge des Trockners platziert. Das vorrangige Ziel des diagonalen Kanals war, die einströmende, warme Luft gleichmäßig auf das gesamte Produkt auszurichten. Die Simulation des Luftstroms wurde mit ANSYS-Fluent in der ANSYS Workbench Plattform durchgeführt. Zwei verschiedene Geometrien der Trocknungskammer, diagonal und nicht diagonal, wurden modelliert und die Ergebnisse für eine gleichmäßige Luftverteilung aus dem diagonalen Luftströmungsdesign erhalten. Es wurde eine Reihe von Experimenten durchgeführt, um das Design zu bewerten. Kartoffelscheiben dienten als Trocknungsgut. Die statistischen Ergebnisse zeigen einen guten Korrelationskoeffizienten für die Luftstromverteilung (87,09%) zwischen dem durchschnittlich vorhergesagten und der durchschnittlichen gemessenen Strömungsgeschwindigkeit. Um den Effekt der gleichmäßigen Luftverteilung auf die Veränderung der Qualität zu bewerten, wurde die Farbe des Produktes, entlang der gesamten Länge der Trocknungskammer kontaktfrei im on-line-Verfahren bestimmt. Zu diesem Zweck wurde eine Imaging-Box, bestehend aus Kamera und Beleuchtung entwickelt. Räumliche Unterschiede dieses Qualitätsparameters wurden als Kriterium gewählt, um die gleichmäßige Trocknungsqualität in der Trocknungskammer zu bewerten. Entscheidend beim Lebensmittel-Chargentrockner ist sein Energieverbrauch. Dafür wurden thermodynamische Analysen des Trockners durchgeführt. Die Energieeffizienz des Systems wurde unter den gewählten Trocknungsbedingungen mit 50,16% kalkuliert. Die durchschnittlich genutzten Energie in Form von Elektrizität zur Herstellung von 1kg getrockneter Kartoffeln wurde mit weniger als 16,24 MJ/kg und weniger als 4,78 MJ/kg Wasser zum verdampfen bei einer sehr hohen Temperatur von jeweils 65°C und Scheibendicken von 5mm kalkuliert. Die Energie- und Exergieanalysen für diagonale Chargentrockner wurden zudem mit denen anderer Chargentrockner verglichen. Die Auswahl von Trocknungstemperatur, Massenflussrate der Trocknungsluft, Trocknerkapazität und Heiztyp sind die wichtigen Parameter zur Bewertung der genutzten Energie von Chargentrocknern. Die Entwicklung des diagonalen Chargentrockners ist eine nützliche und effektive Möglichkeit um dei Trocknungshomogenität zu erhöhen. Das Design erlaubt es, das gesamte Produkt in der Trocknungskammer gleichmäßigen Luftverhältnissen auszusetzen, statt die Luft von einer Horde zur nächsten zu leiten.
Resumo:
Wir betrachten zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängi- gen Gebieten, wobei die Bewegung des Gebietsrandes bekannt ist. Die zeitliche Entwicklung des Gebietes wird durch die ALE-Formulierung behandelt, die die Nachteile der klassischen Euler- und Lagrange-Betrachtungsweisen behebt. Die Position des Randes und seine Geschwindigkeit werden dabei so in das Gebietsinnere fortgesetzt, dass starke Gitterdeformationen verhindert werden. Als Zeitdiskretisierungen höherer Ordnung werden stetige Galerkin-Petrov-Verfahren (cGP) und unstetige Galerkin-Verfahren (dG) auf Probleme in zeitabhängigen Gebieten angewendet. Weiterhin werden das C 1 -stetige Galerkin-Petrov-Verfahren und das C 0 -stetige Galerkin- Verfahren vorgestellt. Deren Lösungen lassen sich auch in zeitabhängigen Gebieten durch ein einfaches einheitliches Postprocessing aus der Lösung des cGP-Problems bzw. dG-Problems erhalten. Für Problemstellungen in festen Gebieten und mit zeitlich konstanten Konvektions- und Reaktionstermen werden Stabilitätsresultate sowie optimale Fehlerabschätzungen für die nachbereiteten Lösungen der cGP-Verfahren und der dG-Verfahren angegeben. Für zeitabhängige Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten präsentieren wir konservative und nicht-konservative Formulierungen, wobei eine besondere Aufmerksamkeit der Behandlung der Zeitableitung und der Gittergeschwindigkeit gilt. Stabilität und optimale Fehlerschätzungen für die in der Zeit semi-diskretisierten konservativen und nicht-konservativen Formulierungen werden vorgestellt. Abschließend wird das volldiskretisierte Problem betrachtet, wobei eine Finite-Elemente-Methode zur Ortsdiskretisierung der Konvektions-Diffusions-Reaktions-Gleichungen in zeitabhängigen Gebieten im ALE-Rahmen einbezogen wurde. Darüber hinaus wird eine lokale Projektionsstabilisierung (LPS) eingesetzt, um der Konvektionsdominanz Rechnung zu tragen. Weiterhin wird numerisch untersucht, wie sich die Approximation der Gebietsgeschwindigkeit auf die Genauigkeit der Zeitdiskretisierungsverfahren auswirkt.
Resumo:
Die zunehmende Luftverschmutzung aufgrund des steigenden Energiebedarfs und Mobilitätsanspruchs der Bevölkerung, insbesondere in urbanen Gebieten, erhöht das Gefährdungspotential für die Gesundheit und verschlechtert so die Lebensqualität. Neben der Vermeidung von Emissionen toxischer Gase als mittel- und langfristig optimale Maßnahme zur Verbesserung der Luftqualität, stellt der Abbau emittierter Luftschadstoffe ein geeignetes und kurzfristig wirksames Mittel dar. Ein solcher Abbau kann durch Photokatalyse erzielt werden, allerdings nutzen Photokatalysatoren, die auf dem Halbleiter Titandioxid (TiO2) basieren, das solare Emissionsspektrum nur geringfüfig aus und sind in Innenräumen und anderen UV-schwachen Bereichen nicht wirksam. Um diese Nachteile zu überwinden, wurde ein Photokatalysator entwickelt und hergestellt, der aus TiO2 (P25) als UV-aktiver Photokatalysator und als Trägermaterial sowie einem seinerseits im Vis-Bereich photoaktiven Porphyrazin-Farbstoff als Beschichtung besteht. Die sterisch anspruchsvollen und in der Peripherie mit acht Bindungsmotiven für TiO2 versehenen Farbstoffmoleküle wurden zu diesem Zweck auf der Halbleiteroberfläche immobilisiert. Die so gebildeten Porphyrazin-Titandioxid-Hybride wurde ausführlich charakterisiert. Dabei wurden unter anderem die Bindung der Farbstoffe auf der Titandioxidoberfläche mittels Adsorptionsisothermen und die UV/Vis-spektroskopischen Eigenschaften des Hybridmaterials untersucht. Zur Bestimmung der photokatalytischen Aktivitäten der Einzelkomponenten und des Hybridmaterials wurden diese auf die Fähigkeit zur Bildung von Singulett-Sauerstoff, Wasserstoffperoxid und Hydroxylradikalen hin sowie in einem an die ISO-22197-1 angelehnten Verfahren auf die Fähigkeit zum Abbau von NO hin jeweils bei Bestrahlung in drei Wellenlängenbereichen (UV-Strahlung, blaues Licht und rotes Licht) geprüft. Darüber hinaus konnte die Aktivität des Hybridmaterials bei der Photodynamischen Inaktivierung (PDI) von Bakterien unter UV- und Rotlichtbestrahlung im Vergleich zum reinen Ttandioxid bestimmt werden. Die Charakterisierung des Hybridmaterials ergab, dass die Farbstoffmoleküle in einer neutralen Suspension nahezu irreversibel in einer monomolekularen Schicht mit einer Bindungsenergie von -41.43 kJ/mol an die Oberfläche gebunden sind und das Hybridmaterial mit hohen Extinktionskoeffizienten von bis zu 105 M-1cm-1 in großen Bereichen des UV/Vis-Spektrums Photonen absorbiert. Das Spektrum des Hybridmaterials setzt sich dabei additiv aus den beiden Einzelspektren zusammen. Die Auswirkungen der Charakterisierungsergebnisse auf die Bildung reaktiver Sauerstoffspezies wurden ausführlich diskutiert. Der Vergleich der Aktivitäten in Bezug auf die Bildung der reaktiven Sauerstoffspezies zeigte, dass die Aktivität des Hybridmaterials bis auf die bei der Bildung von Hydroxylradikalen unter UV-Bestrahlung in allen Versuchen deutlich höher war als die Aktivität des reinen Titandioxids. Im Gegensatz zu reinem Titandioxid erzeugte das Hybridmaterial in allen untersuchten Wellenlängenbereichen Mengen an Singulett-Sauerstoff, die photophysikalisch eindeutig detektierbar waren. Zur Erklärung und Deutung dieser Beobachtungen wurde eine differenzierte Diskussion geführt, die die Ergebnisse der Hybridpartikelcharakterisierung aufgreift und implementiert. Der Vergleich der NO-Abbaueffizienzen ergab bei allen Experimenten durchgängig deutlich höhere Werte für das Hybridmaterial. Zudem wurden durch das Hybridmaterial nachgewiesenermaßen wesentlich geringere Mengen des unerwünschten Nebenprodukts des Abbaus (NO2) gebildet. Im Zuge der Diskussion wurden verschiedene mögliche Mechanismen der „sauberen“ Oxidation zu Nitrat durch das Hybridmaterial vorgestellt. Untersuchungen zur Photodynamischen Inaktivierung verschiedener Bakterien ergaben, dass das Hybridmaterial neben einer zu P25 ähnlichen Aktivität unter UV-Bestrahlung, anders als P25, auch eine PDI verschiedener Bakterien unter Rotlichtbestrahlung erreicht.
Resumo:
Gegenstand dieser Arbeit ist die Untersuchung der Eignung eines neuen Verfahrens zur Charakterisierung von hochkonzentrierten Dispersionen für die lückenlose Überwachung der Dispergiergüte direkt im Compoundierungsprozess. Dafür werden mit einer Ultraschallsonde in Reflexionsanordnung Schallwellen in eine Dispersion eingekoppelt und die durch die Partikel erzeugten Rückstreusignale nach einem statistischen Verfahren verarbeitet. Zunächst wird ein Überblick über die Prozessbedingungen beim Compoundieren gegeben und die Theorie hinter dem Messverfahren vorgestellt. Danach wird der physikalische Aufbau des genutzten Messsystems sowie die Verarbeitung der Messdaten durch die in LabView erstellte Messsoftware beschrieben. Anschließend werden Experimente durchgeführt um die Auswirkung von Messparametern wie z.B.die Anzahl der Einzelmessungen, die Art des Anregungssignals oder den Einfluss von Temperaturschwankungen auf die Messergebnisse zu untersuchen. Die Experimente zeigen, dass das neue Messverfahren grundsätzlich funktioniert. Allerdings weisen die Messergebnisse aufgrund der noch nicht optimal an das Messverfahren angepassten Ultraschallsonde eine hohe Empfindlichkeit gegenüber Temperaturschwankungen auf. Zum Abschluss der Arbeit werden daher einige Verbesserungsvorschläge bezüglich des Designs der Ultraschallsonde gemacht.
Resumo:
Der vorliegende Beitrag stellt die Grundlagen einer Ratingskala zur Erfassung bildungssprachlicher Fähigkeiten in Kindertagesstätten (RaBi) vor. Die RaBi-Skala wurde im Rahmen des Projektes "EASI Science-L" entwickelt und anhand der Transkripte von videografierten Lehr-Lerneinheiten aus diesem Projekt erprobt. Die Entwicklung erfolgt vor dem theoretischen Hintergrund aktuell in der Fachliteratur angenommener bildungssprachlicher Merkmale. Diese werden auf die Besonderheiten der konventionell verlaufenden Sprachentwicklung adaptiert. Es folgt sowohl die Deskription der einzelnen Dimensionen bildungssprachlichen Handelns auf den Ebenen Lexikon, Morphosyntax und Sprachhandlungen als auch die Darstellung der Konzeption der RaBi-Skala sowie erste Ergebnisse.
Resumo:
Die vorliegende Bachelorarbeit befasst sich mit den Themen Usability digitaler Bibliotheksangebote, Nutzerorientierung und Zielgruppendefinition von Öffentlichen Bibliotheken. Die Bearbeiterin untersucht die Website der Stadtbibliothek Wolfsburg. Die Zielgruppen der Stadtbibliothek werden unter Berücksichtigung der demografischen Struktur der Region definiert. Ebenso werden die Entstehungsgeschichte der Stadt beschrieben und wirtschaftliche Einflüsse aufgezeigt. Eine regionale Besonderheit ist die Abhängigkeit der Stadt Wolfsburg zum Volkswagen-Konzern, welche sich einmal mehr durch aktuelle Ereignisse wie den „Abgasskandal bei Volkswagen“ aus dem Jahr 2015 zeigt. Diese regionalspezifischen Aspekte haben insgesamt eine große Relevanz für die zielgruppenorientierte und nutzerfreundliche Gestaltung der Bibliothekswebsite. Allgemein gültige Usability-Standards werden hier an individuelle Faktoren angepasst. Unter Berücksichtigung der Zielgruppendefinition und mithilfe einer Kombination der Usability-Methoden Personas-Verfahren, der Recherchedokumentation im Stil eines Thinking-Aloud-Protokolls und dem Abgleich mit ausgewählten Usability-Kriterien aus dem BibEval-Kriterienkatalog der HTW Chur untersucht die Bearbeiterin den Internetauftritt der Stadtbibliothek Wolfsburg im Praxisteil dieser Bachelorarbeit. Eine zusammenfassende Auswertung zeigt Stärken und Schwächen der Website auf und nennt darüber hinaus Verbesserungspotenziale. Diese Arbeit ist interessant für Bibliothekare, die sich mit der Usability und Nutzerorientierung von digitalen Inhalten nach den spezifischen Zielgruppen einer Institution und ihrem Umfeld auseinander setzen möchten.
Resumo:
Die Jahrestagung 2014 der AQ Austria widmete sich einerseits dem Spannungsfeld zunehmender Diversifizierung von Hochschulen und standardisierten Qualitätssicherungsverfahren andererseits. Im vorliegenden Jahrestagungsband finden sich neben dem Hauptvortrag des Basler Universitätsrektors Loprieno über die Herausforderungen der Diversifizierung für Qualität sowie der Qualitätskultur an Hochschulen auch internationale Beiträge als Antwort aus der Sicht von Qualitätssicherungsagenturen auf die Diversifizierung. Weitere Artikel zu Themen wie duale Studiengänge, Studierbarkeit, Berufungsverfahren sowie Forschungskultur und Qualitätskultur runden die Diskussion über Qualitätssicherung und Diversifizierung in der vorliegenden Publikation ab. Mit Beiträgen von: Loprieno, Antonio; Hanft, Anke; Pichl, Elmar; Jackson, Stephen; Lund, Øystein; Cox, Jeremy; Fink, Kerstin; Brandstätter, Ursula; Bischof, Horst; Gaberscik, Gerald; Janger, Jürgen; Kastner, Johann; Steiger, Anna; Wilhelm, Elena; Holzinger, Helmut; Esca-Scheuringer, Heidi; Kecht, Maria-Regina; Schulmeister, Rolf; Haas, Johannes.
Resumo:
Die Voraussetzunen der parametrischen 1- und mehrfaktoriellen Varianzanalyse, mit und ohne Messwiederholungen, werden besprochen. Ferner werden eine Reihe von alternativen Verfahren vorgestellt, insbesondere einige nichtparametrische, darunter RT (rank transform), INT (inverse normal transform), ART (aligned rank transform), Puri & Sen (L statistic), van der Waerden und Akritas & Brunner (ATS anova type statistic), die sich auf die parametrische Varianzanalyse zurückführen lassen, sowie dichotome und ordinale logistische Regression. Hierzu werden Lösungen mit R und SPSS ausführlich gezeigt.
Resumo:
In dieser Arbeit werden dynamisch adaptive Mehrgitterverfahren parallelisiert. Bei dynamisch adaptiven Mehrgitterverfahren wird ein Gebiet mit einem Gitter überdeckt, und auf diesem Gitter wird gerechnet, indem Gitterpunkte in der Umgebung herangezogen werden, um den Wert des nächsten Zeitpunktes zu bestimmen. Dann werden gröbere und feinere Gitter erzeugt und verwendet, wobei die feineren Gitter sich auf Teilgebiete konzentrieren. Diese Teilgebiete ändern sich im Verlauf der Zeit. Durch die Verwendung der zusätzlichen Gitter werden die numerischen Eigenschaften verbessert. Die Parallelisierung solcher Verfahren geschieht in der Regel durch Bisektion. In der vorliegenden Arbeit wird die Umverteilung der Gebiete realisiert, indem Mengen von einzelnen Gitterpunkten verschickt werden. Das ist ein Scheduling-Verfahren. Die Mehrgitterstrukturen sind so aufgebaut, dass fast beliebige Gitterpunktverteilungen auf den Gitterebenen vorliegen können. Die Strukturen werden einmal erzeugt, und nur bei Bedarf geändert, sodass keine Speicherallokationen während der Iterationen nötig sind. Neben dem Gitter sind zusätzliche Strukturen, wie zum Beispiel die Randstrukturen, erforderlich. Eine Struktur Farbenfeld verzeichnet, auf welchem Kern sich ein Außenrandpunkt befindet. In der parallelen adaptiven Verfeinerung werden für einzelne durch ein Entscheidungskriterium ausgewählte Gitterpunkte 5 x 5 Punktüberdeckungen vorgenommen. Dazu werden die verfügbaren Entscheidungsinformationen zur Bestimmung von komplexeren Strukturen herangezogen. Damit muss das Verfeinerungsgitter nicht komplett abgebaut und dann wieder aufgebaut werden, sondern nur die Änderungen am Gitter sind vorzunehmen. Das spart viel Berechnungszeit. Der letzte Schritt besteht darin, den Lastausgleich durchzuführen. Zunächst werden die Lasttransferwerte bestimmt, die angeben, wie viele Gitterpunkte von wo nach wo zu verschicken sind. Das geschieht mit Hilfe einer PLB genannten Methode bzw. einer Variante. PLB wurde bisher vor allem für kombinatorische Probleme eingesetzt. Dann erfolgt eine Auswahl der zu verschickenden Gitterpunkte mit einer Strategie, welche Punkte eines Kerns zu welchen Nachbarkernen transferiert werden sollen. Im letzten Schritt werden schließlich die ausgewählten Punkte migriert, wobei alle Gitterpunktstrukturen umgebaut werden und solche Informationen gepackt werden müssen, sodass ein Umbau seiner Gitterpunktstrukturen bei dem Empfänger möglich wird. Neben den Gitterpunktstrukturen müssen auch Strukturen für die parallele adaptive Verfeinerung verändert werden. Es muss ein Weiterverschicken von Gitterpunkten möglich sein, wenn über die Lastkanten in mehreren Runden Last verschickt wird. Während des Lastausgleichs wird noch Arbeit durch eine Struktur Zwischenkorrektur durchgeführt, die es ermöglicht, das Farbenfeld intakt zu halten, wenn benachbarte Gitterpunkte gleichzeitig verschickt werden.
Resumo:
In den letzten 30 Jahren hat sich die Positronen Emissions Tomographie (PET) zu einem der wichtigsten Instrumente in der klinischen Diagnostik entwickelt. Neben den ständigen technischen Verbesserungen verdankt die PET ihren klinischen Stellenwert vor allem dem ihr inhärenten Potenzial, physiologische und biochemische Prozesse auf molekularer Ebene und in Echtzeit darzustellen. Aufgrund der wachsenden Zahl neuer und krankheitsspezifischer Radiotracer nimmt sie auch auf dem Gebiet der Wirkstoffentwicklung sowie beim Monitoring von pharmakologischen Interventionen eine immer wichtigere Rolle ein. Grundlegend hierfür ist einerseits das intelligente Design innovativer und selektiver molekularer Sonden mit der Fähigkeit zur Visualisierung molekularer Targets, die in physiologischen und pathophysiologischen Prozessen involviert sind und andererseits die Entwicklung der dafür notwendigen fortschrittlichen Markierungsstrategien. Letzteres ist zentraler Bestandteil der radiochemischen Grundlagenforschung und Hauptgegenstand dieser kumulativen Promotionsarbeit, in dessen Rahmen ein neues „minimalistisches“ Protokoll zur Radiofluorierung ausgearbeitet wurde. Die Entwicklung der sog. „minimalistische“ Methode ermöglicht eine vereinfachte und zeitsparende Herstellung von unterschiedlichsten 18F-markierten Verbindungen, da sie weder der azeotropen Trocknung noch des Zusatzes einer Base oder anderer Additive bedarf. Das neue Radiomarkierungsverfahren umfasst eine direkte Elution von 18F- mittels alkoholischer Lösung der Ammonium-, Diaryliodonium- oder Triarylsulfoniumsalz Vorläufern. Nach Entfernung des Alkohols wird das resultierende [18F]Fluoridsalz in einem geeigneten Lösungsmittel erhitzt. Die hohe Effizienz der auf der „minimalistischen“ Methode basierenden Synthese bietet somit auch einen schnellen Zugang zu 18F-markierten Fluorbenzaldehyden ([18F]FBAs) in großen Aktivitätsmengen, was einen entscheidenden Vorteil für die Entwicklung neuer Markierungsmethoden mit Hilfe dieses Radiomarkierungsbausteins darstellt. Darauf aufbauend wurde, ausgehend von [18F]FBA, auf der Basis der Seyferth-Gilbert Homologisierung, ein innovatives Verfahren zur Synthese von bisher unbekannten 18F-markierten Fluorarylacetylenen entwickelt. Hierdurch konnten über Cycloadditions- und Kreuzkupplungsreaktionen unterschiedliche radiomarkierte Modellverbindungen sowie PET-Tracer hergestellt und somit die Vielseitigkeit der neuen radiomarkierten Synthone aufgezeigt werden. Die durch die „minimalistische“ Methode gesteigerte Effizienz der Synthese von [18F]FBA ermöglicht es ebenfalls, den bereits in der Literatur bekannten Markierungsbaustein C-(4-[18F]Fluorphenyl)-N-phenylnitron [18F]FPPN in ausreichenden Mengen zu produzieren und für die zielgerichtete Synthese diverser radiofluorierter -Lactame über die Kinugasa-Reaktion einzusetzen. Mit dem Erhalt der radiofluorierten β-Lactam-Peptid und -Protein-Konjugate in hohen radiochemischen Ausbeuten unter sehr milden Bedingungen, konnte die Eignung der Kinugasa-Reaktion als neues und leistungsstarkes Radiofluorierungsverfahren eindrucksvoll demonstriert werden.
Resumo:
Im Mittelpunkt dieser Tagungspublikation stehen zwei Kernfragen: Erstens: Welche Interessengruppen stellen welche Anforderungen an die Qualitätssicherung? Diese Frage führt zur Diskussion über den Zweck, den unterschiedliche Interessengruppen mit der Qualitätssicherung verfolgen. Die zweite wichtige Kernfrage betrifft die Wirkungen von Qualitätssicherung. Bewirken sie tatsächlich ein Mehr an Qualität oder dienen sie lediglich der Erfüllung von Berichtspflichten? Und damit eng zusammenhängend: Was sind die intendierten, was die nicht intendierten Effekte von Qualitätssicherung? Die Sicht verschiedener politischer Entscheidungsträgerinnen und -träger, die Sicht der Studierenden und die Sicht der Qualitätssicherungsagentur über die Anforderungen und Wirkungen von Qualitätssicherung werden dargestellt. Ebenso beleuchten Beiträge von Repräsentantinnen und Repräsentanten der Hochschulsektoren die beiden Kernfragen. Die Beiträge zeigen, wo gemeinsame und wo unterschiedliche Interessen bestehen. Mit Beiträgen von: Burckhart, Holger; Hanft, Anke; Hopbach, Achim; Töchterle, Karlheinz; Kazoka, Asnate; Badelt, Christoph; Eckl, Martha; Wulz, Janine; Mann, Susanne; Feucht, Gudrun; Brandstätter, Wilhelm; Moser, Josef-Anton; Treml, Beate; Kainz, Harald; Gaberscik, Gerald; Fink, Kerstin; Wöber, Karl.
Resumo:
Die Produktion von Astaxanthin mittels Haematococcus pluvialis ist eines der wichtigsten Fachgebiete der Mikroalgen Biotechnologie. Kommerzielles Interesse ist zurückzuführen auf dessen Anwendungen als Pigment in der Tierzucht und neuerdings auch im Bereich des Gesundheitswesens, begründet auf seiner starken anti-oxidativen Wirkung. Allerdings begrenzen die Herausforderungen in der industriellen Produktion von H. pluvialis, in Bezug auf den Metabolismus der Alge wie gleichermaßen auch die Kultivierungsstrategie, immer noch den Markt für natürliches Astaxanthin. Die derzeit gängigen Kultivationstechnologien basieren auf Suspensionssystemen, welche weitgehende Nachteile mit sich führen, wie hoher Wasser-, Energie und Technikaufwand. Diese Probleme können durch die Anwendung einer immobilisierten Kultivation vermieden werden, weshalb diesem Verfahren immer mehr Aufmerksamkeit zu Teil wird. In dieser Arbeit wurde H. pluvialis als immobilisierte Kultur in einem Twin-Layer PSBR verwendet. Insgesamt wurden 26 verschiedene Arten von H. pluvialis gefunden, die als Biofilm wachsen und Astaxanthin produzieren konnten, wobei der Stamm CCAC 0125 zur weiteren Optimierung des Prozesses ausgewählt wurde. Biomasse und Astaxanthin Produktion stiegen zunehmenden in Abhängigkeit zu der Lichtintensität, bis einschließlich 1,015 µmol Photonen m-2 s-1, ohne Anzeichen von Photoinhibition. Maximale Biomasse Produktivität von 19.4 g m-2 d-1 wurde unter starken Lichtverhältnissen verzeichnet. Nährstofflimitierungen und Salinität unterstützen die Astaxanthin Produktion hinderten allerdings das Wachstum der Biomasse. Nichtdestotrotz, wurde die höchste Astaxanthin Produktivität von 0.507 g m-2 d-1 mit einem Biomasseanteil von 3.5% in der Trockenmasse durch starke Belichtung sowie Stickstoff- und Phosphatmangel erreicht. Diese Ergebnisse bestärken die Verwendung der immobilisierten Kultivation von H. pluvialis als Alternative zu den derzeitigen Technologien. Die Verknüpfung von hoher Biomasse mit der Produktion von Astaxanthin bei starkem Lichtintensitäten wurde nur durch die Anordnung in einem Biofilm ermöglicht. Es kann einen Durchbruch in der kommerziellen Herstellung von H. pluvialis darstellen, da hierbei das Vorziehen der Kulturen bei geringen Licht entfällt, was wiederum den derzeit verwendeten komplexen Zwei-Stufen Prozess stark vereinfacht.
Resumo:
Rezension von: Martin Fischer / Matthias Becker / Georg Spöttl (Hrsg.). Kompetenzdiagnostik in der beruflichen Bildung, Probleme und Perspektiven, Frankfurt am Main: Peter Lang 2011 (236 S.; ISBN 978-3-631-61660-4)