10 resultados para 2004-05-BS

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Gewindefurchen ist ein spanloses Fertigungsverfahren zur Herstellung von Innengewinden. Es bietet wesentliche Vorteile gegenüber der spanenden Innengewindeherstellung, wie z.B. keine Notwendigkeit zur Spanentsorgung, höhere Festigkeit der Gewindeflanken und eine erhöhte Prozessgeschwindigkeit. Um die Vorteile des Verfahrens unter wirtschaftlichen und technologischen Aspekten besser auszunutzen, bietet die Weiterentwicklung der Werkzeuggeometrie sowohl im makroskopischen als auch im mikroskopischen Bereich ein enormes Potential, welches nicht nur bezüglich der Standzeit bzw. Standmenge und Prozessgeschwindigkeit, sondern auch hinsichtlich der Qualität der erzeugten Gewinde erschlossen werden sollte. Durch die empirische Untersuchung der technischen und physikalischen Eigenschaften am Gewindefurcher sollen der Anformbereich und die Formkeilgeometrie in Abhängigkeit verschiedener Prozessparameter und Werkstoffe verbessert werden, um optimale Bearbeitungsergebnisse hinsichtlich der hergestellten Gewindefurchen und des auftretenden Verschleißes am Gewindefurcher bzw. Formkeils zu erreichen. Die Basis dieser Untersuchungen bildet ein neuartiger Modellversuch, bei dem modifizierte Gewindefurcher verwendet werden, die derart umgestaltet sind, dass von einem üblichen Gewindefurcher durch Umschleifen nur noch ein einzelner Gewindegang am Werkzeug verbleibt. Dadurch ist es möglich, in einer vergrößerten Vorbohrung mit einem Formkeil die einzelnen Umformstufen beim Gewindefurchen separat zu fertigen, die auftretenden Prozesskräfte während des Eingriffs in das Werkstück zu messen und das Bearbeitungsergebnis im Werkstück und den Verschleiß am Formkeil zu bewerten. Weiterhin wird eine rein theoretische Methode beschrieben, mit der die Berechnung der Umformkraft und darauf basierend der Furchmomente am Formkeil bzw. dem ganzen Gewindefurcher möglich ist. Durch die Kenntnis der berechneten Kräfte und Momente am einzelnen Formkeil bzw. dem Gewindefurcher kann bereits in der Konzeptionsphase eines Gewindefurchers eine Anpassung des Werkszeuges an die jeweiligen Bearbeitungsanforderungen durchgeführt werden, wodurch der Entwurf von Gewindefurchern wesentlich wirtschaftlicher realisierbar ist, als durch rein empirische Herangehensweisen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Ermittlung der beim Thermofließlochformen entstehenden Temperaturen. Im Rahmen dieser Arbeit wurden die Temperaturen während des Bearbeitungsprozesses mittels der berührungslosen Temperaturmesssysteme Pyrometer und Thermografiekamera in Abhängigkeit von Werkstoffsorte, Werkstoffdicke und Werkzeuggeometrie untersucht. Die Untersuchung beinhaltet die Auswertung der Ergebnisse unter Anwendung einer statistischen Versuchsplanung und -auswertung, den Vergleich der gewonnenen Temperaturen und Temperaturverläufe sowie die Darstellung einiger Vor- und Nachteile der eingesetzten Temperaturmesssysteme. Als Voraussetzung zu einer berührungslosen Temperaturmessung mit diesen Messsystemen fand weiterhin eine experimentelle Ermittlung der Emissionsgrade der untersuchten Werkstoffe statt. Abschließend wurde ein Zusammenhang zwischen der während der Bearbeitung entstehenden Prozesstemperaturen und der Momente untersucht.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die an der Glutathionsynthese im Chloroplasten von Spinatblättern beteiligten Enzyme sind auf eine lichtabhängige Regulation durch Thioredoxine (Trx) und Glutaredoxine (Grx) hin untersucht worden. Dazu wurde eine neue, vereinfachte Methode zur Aktivitätsbestimmung für die gamma-Glutamylcystein- und Glutathionsynthetase auf der Kapillarelektrophorese entwickelt. Untersuchungen mit den homologen Thioredoxinen Trx m und Trx f aus Spinatchloroplasten und mit dem E.coli Trx und E.coli Grx 1 zeigten, dass bei beiden Enzymen keine Redoxmodulation durch diese Proteine stattfindet. Weitere Untersuchungen mit der Glutathionsynthetase zeigten keinen Einfluss von Dithiothreit, Sulfit-Ionen und Ascorbat auf die Enzymaktivität. Nur H2O2, in unphysiologischen Konzentrationen, bewirkte eine leichte Abnahme der Ausgangsaktivität. Im Fall der gamma-Glutamylcysteinsynthetase konnten verschiedene Einflüsse ausgemacht werden. So war mit Dithiothreit und H2O2 bei niedrigen Konzentrationen eine Stimulation und bei höheren Konzentration eine Inhibition der Enzymaktivität festzustellen: Sulfit-Ionen zeigten eine starke Stimulierung der gamma-Glutamylcysteinsynthetase über einen weiten Konzentrationsbereich, wobei eine starke pH-Wert-Abhängigkeit der Stimulation zu beobachten war. Ascorbat zeigte, wie bei der Glutathionsynthetase, keinen Einfluss auf die Enzymaktivität der gamma-Glutamyl-cysteinsynthetase. In einem zweiten Teil der Arbeit über die Glutaredoxine des Spinats konnte ein 12,4 kDa Protein mit Thioltransferase-Aktivität, das bisher als cytosolisches Glutaredoxin beschrieben wurde, aufgereinigt und mittels N-terminaler Sequenzierung eindeutig als ein Glutaredoxin identifiziert werden. Überdies konnte ein noch nicht beschriebenes 12,8 kDa Protein mit Thioltransferase-Aktivität aus Spinatchloroplasten aufgereinigt werden. Durch Peptid-Sequenzierung gelang es dieses Protein auch als ein Glutaredoxin zu identifizieren. Beide pflanzlichen Glutaredoxine zeigten keine Modulation der Aktivitäten der chloroplastidären Fructosebisphosphatase (FbPase) und NADPH-Malatdehydrogenase (NADPH-MDH). Auch war mit beiden Glutaredoxinen keine Dehydroascorbatreduktase-Aktivität, oder eine Stimulation der Ribonucleotidreduktase aus Lactobacillus leichmannii festzustellen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Kernthese dieser Arbeit ist eine Leerstelle. Ihre Formulierung beruht auf einer Beobachtung, wie sie von William Gibson stammen könnte: kulturell avantgardistische Gruppen der Gesellschaft internalisieren für ihre technologisch gestützten Praktiken futuristische Phantasmen geschichtlicher Vorläufer, die in Literatur und Mediengeschichte detektivisch aufspürbar sind. Werden diese Verinnerlichungen in aktuelle Fantasien umgewandelt, entsteht eine hybride Mischung vielfältigster Beschäftigungen, Reflexionen und Entwürfe von Technokultur. Bringt man diese Kopplungen auf das Jahr 3000, die nächste epochale zukünftige Zäsur, wird die Absurdität des Projekts, Technokultur überhaupt zu thematisieren deutlich. Technokultur ist im dynamischen Wandel sozio-ikonografisch untersuchbar, wird aber durch Unschärferelation zum object trouvé und Triebmoment für eine in es selbst hinein assimilierbare Analyse. Der daraus folgenden Vermessenheit kann durch instrumentelle Serendipity begegnet werden, die hier nicht Effekt wäre, stattdessen als Methode Verwendung findet: Finden statt Suchen. Das verhältnismäßig neue Schreib/Lese-Medium Hypertext bietet sich dafür als geradezu prädestiniert an. Hypertext ist prinzipiell unabgeschlossen, er folgt hier Arbeitsprinzipien wie sie seit den frühen 1990ern in Online-Tagebüchern und seit den frühen 2000er Jahren in Weblogs (World Wide Web Logbooks) auszumachen sind: Notizen, Found Text (analog zu Found Footage), Zitate, Fragmente, die kurze Form, kurz: wissenschaftliche Alltagstextproduktion wird nach Ordnungskriterien a-systematisiert und verwoben - weniger archiviert denn gesammelt. Eine Art Second Hand Theorie entsteht.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A field experiment was conducted under rainfed conditions in western Sudan at El-Obeid Research Farm and Eldemokeya Forest Reserve, North Kordofan State, during the growing seasons 2004/05 and 2005/06. The main objective was to investigate the soil physical and chemical properties and yield of groundnut (Arachis hypogea), sesame (Sesamum indicum) and roselle (Hibiscus sabdariffa) of an Acacia senegal agroforestry system in comparison with the sole cropping system. Data were recorded for soil physical and chemical properties, soil moisture content, number of pods per plant, fresh weight (kg ha^−1) and crop yield (kg ha^−1). The treatments were arranged in Randomized Complete Block Design (RCBD) and replicated four times. Significant differences (P < 0.05) were obtained for sand and silt content on both sites, while clay content was not significantly different on both sites. The nitrogen (N) and organic carbon were significantly (P < 0.05) higher in the intercropping system in Eldemokeya Forest Reserve compared with sole cropping. Soil organic carbon, N and pH were not significant on El-Obeid site. Yet the level of organic carbon, N, P and pH was higher in the intercropping system. Fresh weight was significantly different on both sites. The highest fresh weight was found in the intercropping system. Dry weights were significantly different for sesame and roselle on both sites, while groundnut was not significantly different. On both sites intercropping systems reduced groundnut, sesame and roselle yields by 26.3, 12 and 20.2%, respectively. The reduction in yield in intercropping plots could be attributed to high tree density, which resulted in water and light competition between trees and the associated crops.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Ziel der Dissertation war die Untersuchung des Computereinsatzes zur Lern- und Betreuungsunterstützung beim selbstgesteuerten Lernen in der Weiterbildung. In einem bisher konventionell durchgeführten Selbstlernkurs eines berufsbegleitenden Studiengangs, der an das Datenmanagement der Bürodatenverarbeitung heranführt, wurden die Kursunterlagen digitalisiert, die Betreuung auf eine online-basierte Lernbegleitung umgestellt und ein auf die neuen Lernmedien abgestimmtes Lernkonzept entwickelt. Dieses neue Lernkonzept wurde hinsichtlich der Motivation und der Akzeptanz von digitalen Lernmedien evaluiert. Die Evaluation bestand aus zwei Teilen: 1. eine formative, den Entwicklungsprozess begleitende Evaluation zur Optimierung der entwickelten Lernsoftware und des eingeführten Lernkonzeptes, 2. eine sowohl qualitative wie quantitative summative Evaluation der Entwicklungen. Ein zentraler Aspekt der Untersuchung war die freie Wahl der Lernmedien (multimediale Lernsoftware oder konventionelles Begleitbuch) und der Kommunikationsmedien (online-basierte Lernplattform oder die bisher genutzten Kommunikationskanäle: E-Mail, Telefon und Präsenztreffen). Diese Zweigleisigkeit erlaubte eine differenzierte Gegenüberstellung von konventionellen und innovativen Lernarrangements. Die Verbindung von qualitativen und quantitativen Vorgehensweisen, auf Grund derer die subjektiven Einstellungen der Probanden in das Zentrum der Betrachtung rückten, ließen einen Blickwinkel auf den Nutzen und die Wirkung der Neuen Medien in Lernprozessen zu, der es erlaubte einige in der Literatur als gängig angesehene Interpretationen in Frage zu stellen und neu zu diskutieren. So konnten durch eine Kategorisierung des Teilnehmerverhaltens nach online-typisch und nicht online-typisch die Ursache-Wirkungs-Beziehungen der in vielen Untersuchungen angeführten Störungen in Online-Seminaren verdeutlicht werden. In den untersuchten Kursen zeigte sich beispielsweise keine Abhängigkeit der Drop-out-Quote von den Lern- und Betreuungsformen und dass diese Quote mit dem neuen Lernkonzept nur geringfügig beeinflusst werden konnte. Die freie Wahl der Lernmedien führte zu einer gezielten Nutzung der multimedialen Lernsoftware, wodurch die Akzeptanz dieses Lernmedium stieg. Dagegen war die Akzeptanz der Lernenden gegenüber der Lernbegleitung mittels einer Online-Lernplattform von hoch bis sehr niedrig breit gestreut. Unabhängig davon reichte in allen Kursdurchgängen die Online-Betreuung nicht aus, so dass Präsenztreffen erbeten wurde. Hinsichtlich der Motivation war die Wirkung der digitalen Medien niedriger als erwartet. Insgesamt bieten die Ergebnisse Empfehlungen für die Planung und Durchführung von computerunterstützten, online-begleiteten Kursen.