46 resultados para Prototypen
Resumo:
Um den theoretischen Hintergrund der Produktentwicklung darzustellen, werden im Einstieg der Arbeit das Projekt- sowie das Qualitätsmanagement vorgestellt und in Bezug auf das Projekt einer Prototypenentwicklung gesetzt. Es werden die einzelnen Phasen, Anträge und Projektvereinbarungen erläutert, was einen Einblick in den Aufbau des gesamten Konzeptes bieten soll. Das Qualitätsmanagement ist ein breit gefächertes Gebiet und wird in so gut wie jeder Sparte verwendet, um Prozesse zu optimieren und Probleme sowie Fehler zu beheben. Die wichtigsten Werkzeuge in der Entwicklung von Vorserien, wie das Quality Function Deployment, das House of Quality, die Fehler-Möglichkeits- und Einfluss-Analyse und die Risikoprioritätszahl, werden vorgestellt. Es wird im Einzelnen erläutert, wie sie in der Entwicklung von Traktoren Anwendung finden. Weiterhin wird ein praktischer Teil der Arbeit erläutern, welche Aufgaben und Prozessschritte in der Entwicklung sowie Validierung anstehen, außerdem auf welche Merkmale zu achten ist. Im letzten Kapitel wird auf die Erprobung der Prototypen eingegangen, wie eine Homologation abläuft, welche Vorgehensweisen es gibt und welche Erkenntnisse die dazugehörige Datenauswertung bieten. Im letzten Unterkapitel 4.5 Diskussion wird hier auch die eigene Meinung sowie Erfahrung mit eingebracht sowie Verbesserungsmöglichkeiten aufgezeigt. Zur besseren und übersichtlicheren Erläuterung der einzelnen Durchführungen wird nach jedem Kapitel der grobe Ablauf in einem Datenflussdiagramm dargestellt. Resümierend werden anschließend die Kerninhalte der vorliegenden Arbeit in einem Fazit zusammengefasst.
Resumo:
Die Ergebnisse der Konstruktion können so aufbereitet werden, dass sie nach entsprechenden Berechnungen und Simulationen als virtuelle Prototypen zur Verfügen gestellt werden können. Die Möglichkeiten des Einsatzes virtueller Prototypen werden aufgezeigt. Der Unterschied zwischen virtuellen und realen Prototypen in Bezug auf die individuelle Wahrnehmung aufgrund der Sinnesmodalitäten wird erläutert. Die gegenwärtigen Grenzen der virtuellen Prototypen werden aufgezeigt.
Resumo:
Der Anwendungsbereich für Modelle und Prototypen hat sich mittlerweile auch auf unterschiedlichste medizinische Fragestellungen ausgedehnt. Der vorliegende Beitrag zeigt an verschiedenen Praxisbeispielen und Verfahren Möglichkeiten eines in der Technik etablierten Verfahrens für eine erweiterte Anwendung auf.
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.
Resumo:
In dieser Arbeit wird eine Evaluationsmethodik vorgestellt, die sich insbesondere für einen formativen Entwicklungskontext eignet. Die Methodik wird unter Berücksichtigung der Evaluationsergebnisse zu mehreren Lernsystem-Prototypen bewertet.
Resumo:
Detta examensarbete på magisternivå genomfördes med MaserFrakt som uppdragsgivare. Målet var att skapa en möjlighet till att ersätta dagens pappersavi med ett SMS. Detta har vi uppnått genom att utveckla en webbaserad prototyp som kan ersätta utskriften och utskicket av avin genom att skicka ut ett fördefinierat SMS. Att pappersavin ersätts av ett SMS tjänar både MaserFrakt och deras kunder på eftersom det leder till snabbare leverans för kunderna och dessutom minskar MaserFrakt sitt godslager och sänker sina utskickskostnader då ett SMS är billigare att skicka än ett brev.Vi har även undersökt möjligheterna till en ännu tidigare avisering där SMS:et skulle gå ut redan innan godset fysiskt inkommer till MaserFrakt. Detta kom vi fram till skulle kunna vara fullt genomförbart även om man skulle vara tvungen att genomföra ett antal förändringar, till exempel skulle relationen med samarbetetspartnern DFDS behöva förstärkas så att MaserFrakt får en bättre tillgång till deras system.Vårt tillvägagångssätt har för den teoretiska delen av arbetet byggt på kvalitativa intervjuer och inläsning av olika befintliga teorier inom mobilitet, IT-tjänster, systemarkitektur samt analys av teorierna. För det praktiska framtagandet av prototypen har vi använt oss av utvalda delar ifrån David Siegels modell som beskriver hur man utvecklar webbsidor.
Resumo:
Denna examensrapport på magisternivå genomfördes under våren 2004, hos AB Borlänge Energi.Borlänge Energis servicetekniker behövde ett hjälpmedel för att effektivisera deras arbetsuppgifter. Tidigare sparades driftjournaler för varje servicekund lokalt hos kunden. Serviceteknikern behövde också åka tillbaka till huvudkontoret för att slutföra ett uppdrag. Borlänge Energi hade inte heller någon möjlighet att föra statistik över servicekunderna då alla driftjournaler sparades hos servicekunden.Vi utvecklade en prototyp av ett inrapporteringsverktyg för en handdator. I detta verktyg får serviceteknikern tillgång till all relevant information gällande serviceuppdraget. Efter slutfört uppdrag skickas driftjournalen in till en databas hos Borlänge Energi, samtidigt skickas ett email till servicekunden att serviceuppdraget är utfört.Utöver målet utredde vi nyttan med applicering av mobil enhet i organisationen. Borlänge Energi vill med detta veta om arbetet blev effektivare, samt om arbetsrutinerna förändrades. Resultatet vi kom fram till var att arbetet effektiviseras med användning av prototypen. Viktiga faktorer för att få serviceteknikern att använda prototypen var användarvänlighet samt förändring av arbetsrutiner.
Resumo:
I takt med att GIS (Grafiska InformationsSystem) blir allt vanligare och mer användarvänligt har WM-data sett att kunder skulle ha intresse i att kunna koppla information från sin verksamhet till en kartbild. Detta för att lättare kunna ta till sig informationen om hur den geografiskt finns utspridd över ett område för att t.ex. ordna effektivare tranporter. WM-data, som det här arbetet är utfört åt, avser att ta fram en prototyp som sedan kan visas upp för att påvisa för kunder och andra intressenter att detta är möjligt att genomföra genom att skapa en integration mellan redan befintliga system. I det här arbetet har prototypen tagits fram med skogsindustrin och dess lager som inriktning. Befintliga program som integrationen ska skapas mellan är båda webbaserade och körs i en webbläsare. Analysprogrammet som ska användas heter Insikt och är utvecklat av företaget Trimma, kartprogrammet heter GIMS som är WM-datas egna program. Det ska vara möjligt att i Insikt analysera data och skapa en rapport. Den ska sedan skickas till GIMS där informationen skrivs ut på kartan på den plats som respektive information hör till. Det ska även gå att välja ut ett eller flera områden i kartan och skicka till Insikt för att analysera information från enbart de utvalda områdena. En prototyp med önskad funktionalitet har under arbetets gång tagits fram, men för att ha en säljbar produkt är en del arbeta kvar. Prototypen har visats för ett antal intresserade som tyckte det var intressant och tror att det är något som skulle kunna användas flitigt inom många områden.
Resumo:
En e-guide är ett fenomen som kan ge mervärde för besökaren. Det innebär en övergång ifrån en mänsklig guide till en digitaliserad. Det har tidigare skapats e-guider som inte har haft de tekniska aspekterna som krävs för att kunna framföra informationen till besökaren på det sätt utvecklarna och andra inblandade har önskat. Vi har undersökt och utvärderat en av dessa eguiderför att skapa en prototyp för en e-guide över Elsborg, som är en del av Världsarvet Falun. Prototypen utgår ifrån smartphones och operativsystemet Android. Utifrån tidigare och nutida eguider och prototypen, har vi analyserat resultaten och därigenom undersökt möjligheten för att skapa en generisk arkitektur, i form av en applikation för en e-guide som ska kunna appliceras på olika sammanhang oberoende av dess innehåll. Våra efterforskningar har dock visat att det ärsvårt att skapa en så pass generaliserad mall att den direkt går att implementera utan vissa justeringar.
Resumo:
Allt eftersom utvecklingen går framåt inom applikationer och system så förändras också sättet på vilket vi interagerar med systemet på. Hittills har navigering och användning av applikationer och system mestadels skett med händerna och då genom mus och tangentbord. På senare tid så har navigering via touch-skärmar och rösten blivit allt mer vanligt. Då man ska styra en applikation med hjälp av rösten är det viktigt att vem som helst kan styra applikationen, oavsett vilken dialekt man har. För att kunna se hur korrekt ett röstigenkännings-API (Application Programming Interface) uppfattar svenska dialekter så initierades denna studie med dokumentstudier om dialekters kännetecken och ljudkombinationer. Dessa kännetecken och ljudkombinationer låg till grund för de ord vi valt ut till att testa API:et med. Varje dialekt fick alltså ett ord uppbyggt för att vara extra svårt för API:et att uppfatta när det uttalades av just den aktuella dialekten. Därefter utvecklades en prototyp, närmare bestämt en android-applikation som fungerade som ett verktyg i datainsamlingen. Då arbetet innehåller en prototyp och en undersökning så valdes Design and Creation Research som forskningsstrategi med datainsamlingsmetoderna dokumentstudier och observationer för att få önskat resultat. Data samlades in via observationer med prototypen som hjälpmedel och med hjälp av dokumentstudier. Det empiriska data som registrerats via observationerna och med hjälp av applikationen påvisade att vissa dialekter var lättare för API:et att uppfatta korrekt. I vissa fall var resultaten väntade då vissa ord uppbyggda av ljudkombinationer i enlighet med teorin skulle uttalas väldigt speciellt av en viss dialekt. Ibland blev det väldigt låga resultat på just dessa ord men i andra fall förvånansvärt höga. Slutsatsen vi drog av detta var att de ord vi valt ut med en baktanke om att de skulle få låga resultat för den speciella dialekten endast visade sig stämma vid två tillfällen. Det var istället det ord innehållande sje- och tje-ljud som enligt teorin var gemensamma kännetecken för alla dialekter som fick lägst resultat överlag.
Resumo:
Ziel der Arbeit war es zu klären, ob und auf welche WeiseGoldfische die Farben des Spektrums in Kategorien einteilen.Die Fische wurden dazu auf zwei bzw. sechs Wellenlängendressiert. Bei zwei Dressurwellenlängen durchliefen dieTiere verschiedene Tests. Sowohl der Transfertest, als auchder Generalisierungstest zeigten Ergebnisse, die nichtalleine mit der Wellenlängenunterscheidungsfähigkeit derFische erklärt werden können, sondern auf eineKategorisierung der Farben hindeuten. Dabei zeigt es sich,dass es zwischen 540 nm und 608 nm keinen direkten Überganggibt, während Bereiche zwischen anderen Wellenlängen, z.B.zwischen 438 und 501 nm, größere Ähnlichkeiten aufwiesen.Die Generalisierungsergebnisse der Versuche mit sechsDressurwellenlängen lassen eine genauere Einteilung desWellenlängenspektrums zu. Hier traten deutliche Unterschiedein den Wahlhäufigkeiten auf. Wenn man die Maxima derWahlhäufigkeiten als Prototypen einer Kategorie definiertund die Bereiche mit geringen Wahlhäufigkeiten alsÜbergangsbereich zwischen zwei Kategorien, so ergeben sichfünf bzw. sechs Kategorien, wenn man den breiten Bereich(zwischen 515 und 580 nm) mit niedrigen Wahlhäufigkeiten alseigene Kategorie wertet. Bezieht man die Ergebnisse derDressur auf zwei Wellenlängen mit ein, so ergibt sich eineEinteilung des Wellenlängenspektrums des Goldfisches von 388nm bis 685 nm in sieben Kategorien.
Resumo:
Der Bedarf an hyperpolarisiertem 3He in Medizin und physikalischer Grundlagenforschung ist in den letzten ca. 10-15 Jahren sowohl in Bezug auf die zu Verfügung stehende Menge, als auch auf den benötigten Grad der Kernspinpolarisation stetig gestiegen. Gleichzeitig mußten Lösungen für die polarisationserhaltende Speicherung und den Transport gefunden werden, die je nach Anwendung anzupassen waren. Als Ergebnis kann mit dieser Arbeit ein in sich geschlossenes Gesamtkonzept vorgestellt werden, daß sowohl die entsprechenden Mengen für klinische Anwendungen, als auch höchste Polarisation für physikalische Grundlagenfor-schung zur Verfügung stellen kann. Verschiedene unabhängige Polarimetriemethoden zeigten in sich konsistente Ergebnisse und konnten, neben ihrer eigenen Weiterentwicklung, zu einer verläßlichen Charakterisierung des neuen Systems und auch der Transportzellen und –boxen eingesetzt werden. Die Polarisation wird mittels „Metastabilem Optischen Pumpen“ bei einem Druck von 1 mbar erzeugt. Dabei werden ohne Gasfluß Werte von P = 84% erreicht. Im Flußbetrieb sinkt die erreichbare Polarisation auf P ≈ 77%. Das 3He kann dann weitgehend ohne Polarisationsver-luste auf mehrere bar komprimiert und zu den jeweiligen Experimenten transportiert werden. Durch konsequente Weiterentwicklung der vorgestellten Polarisationseinheit an fast allen Komponenten kann somit jetzt bei einem Fluß von 0,8 barl/h eine Polarisation von Pmax = 77% am Auslaß der Apparatur erreicht werden. Diese skaliert linear mit dem Fluß, sodaß bei 3 barl/h die Polarisation immer noch bei ca. 60% liegt. Dabei waren die im Rahmen dieser Arbeit durchgeführten Verbesserungen an den Lasern, der Optik, der Kompressionseinheit, dem Zwischenspeicher und der Gasreinigung wesentlich für das Erreichen dieser Polarisatio-nen. Neben dem Einsatz eines neuen Faserlasersystems ist die hohe Gasreinheit und die lang-lebige Kompressionseinheit ein Schlüssel für diese Leistungsfähigkeit. Seit Herbst 2001 er-zeugte das System bereits über 2000 barl hochpolarisiertes 3He und ermöglichte damit zahl-reiche interdisziplinäre Experimente und Untersuchungen. Durch Verbesserungen an als Prototypen bereits vorhandenen Transportboxen und durch weitgehende Unterdrückung der Wandrelaxation in den Transportgefäßen aufgrund neuer Erkenntnisse über deren Ursachen stellen auch polarisationserhaltende Transporte über große Strecken kein Problem mehr dar. In unbeschichteten 1 Liter Kolben aus Aluminosilikatglä-sern werden nun problemlos Speicherzeiten von T1 > 200h erreicht. Im Rahmen des europäi-schen Forschungsprojektes „Polarized Helium to Image the Lung“ wurden während 19 Liefe-rungen 70barl 3He nach Sheffield (UK) und bei 13 Transporten 100 barl nach Kopenhagen (DK) per Flugzeug transportiert. Zusammenfassend konnte gezeigt werden, daß die Problematik der Kernspinpolarisationser-zeugung von 3He, die Speicherung, der Transport und die Verwendung des polarisierten Ga-ses in klinischer Diagnostik und physikalischen Grundlagenexperimenten weitgehend gelöst ist und das Gesamtkonzept die Voraussetzungen für allgemeine Anwendungen auf diesen Gebieten geschaffen hat.
Resumo:
Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.