968 resultados para Algebraic Bethe-ansatz


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1986 bis 1988 eintwickelte die Projektjektgruppe verfassungsverträgliche Technikgestaltung (provet) in einer konditionalen Prognose ein Szenario für die Entwicklung und Anwendung der Informationstechnik in Deutschland. Daraus wurden Thesen für die Verletzlichkeit der Gesellschaft und deren Folgen sowie Gestaltungsvorschläge abgeleitet, mit denen die Verletzlichkeit reduziert werden könne. Der Forschungsbericht "Die Verletzlichkeit der Informationsgesellschaft" wurde vor 25 Jahren publiziert. In dem vorliegenden Beitrag prüfen Mitglieder von provet, inwieweit das Szenario und die diesbezügliche angenommene Verletzlichkeit eingetreten sind, ob eine Gegensteuerung gegen zu viel Verletzlichkeit stattfand und welche Rolle die Gestaltungsvorschläge der Studie dabei spielten. Daraus lässt sich mittelbar auch erkennen, wie nützlich der methodische Ansatz der Technikfolgenforschung und die Gestaltungsvorschläge waren und heute sein können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ZUSAMMENFASSUNG Von der „Chaosgruppe“ zur lernenden Organisation. Fallstudien zur Induzierung und Verbreitung von Innovation in ländlichen Kleinorganisationen im Buruli (Zentral-Uganda). Die oft fehlende Nachhaltigkeit landwirtschaftlicher Projekte in Afrika allgemein und in Buruli (Zentral-Uganda) insbesondere gab den Anstoß zu der Forschung, die der vorliegenden Dissertation zugrunde liegt. Ein häufiger Grund für das Scheitern von Projekten ist, dass die lokale Bevölkerung die landwirtschaftliche Innovation als Risiko für die Ernährungssicherheit der Familie betrachtet. Die vorliegende Arbeit ist daher ein Beitrag zur Suche nach einem Weg zur Nachhaltigkeit, der dieser Tatsache Rechnung trägt. Als Forschungsmethode wurden die Gruppendiskussion und die Beobachtung mit den beiden Varianten „teilnehmender Beobachter“ und „beobachtender Teilnehmer“ gemäß Lamnek(1995b) angewendet. Es stellte sich heraus, dass die ablehnende Haltung der Zielbevölkerung landwirtschaftlicher Innovation gegenüber durch finanzielle Anreize, Seminare oder die Überzeugungskunst von Mitarbeitern der Entwicklungsorganisationen kaum behoben werden kann, sondern nur durch den Einbezug der Menschen in einen von ihnen selbst gesteuerten Risikomanagementprozess. Die Prozessberatung von Schein (2000) und die nichtdirektive Beratung von Rogers (2010) haben sich im Rahmen unserer Untersuchung für die Motivierung der Bevölkerung für eine risikobewusste Entwicklungsinitiative von großem Nutzen erwiesen ebenso wie für die Beschreibung dieses Prozesses in der vorliegenden Studie. Die untersuchten Gruppen wurden durch diesen innovativen Ansatz der Entwicklungsberatung in die Lage versetzt, das Risiko von Innovation zu analysieren, zu bewerten und zu minimieren, ihre Zukunft selbst in die Hand zu nehmen und in einem sozialen, ökonomischen und physischen Umfeld zu gestalten sowie auf Veränderungen im Laufe der Umsetzung angemessen zu reagieren. Der Erwerb dieser Fähigkeit setzte eine Umwandlung einfacher Bauerngruppen ohne erkennbare Strukturen in strukturierte und organisierte Gruppen voraus, die einer lernenden Organisation im ländlichen Raum entsprechen. Diese Transformation bedarf als erstes eines Zugangs zur Information und einer zielorientierten Kommunikation. Die Umwandlung der Arbeitsgruppe zu einer lernenden Bauernorganisation förderte die Nachhaltigkeit des Gemüseanbauprojekts und das Risikomanagement und wurde so zu einem konkreten, von der Umwelt wahrgenommenen Beispiel für die Zweckmäßigkeit des oben beschriebenen Forschungsansatzes. Die Herausbildung einer lernenden Organisation ist dabei nicht Mittel zum Zweck, sondern ist selbst das zu erreichende Ziel. Die Beobachtung, Begleitung und Analyse dieses Umwandlungsprozesses erfordert einen multidisziplinären Ansatz. In diesem Fall flossen agrarwissenschaftliche, soziologische, linguistische und anthropologische Perspektiven in die partnerschaftlich ausgerichtete Forschung ein. Von der Entwicklungspolitik erfordert dieser Ansatz einen neuen Weg, der auf der Partnerschaft mit den Betroffenen und auf einer Entemotionalisierung des Entwicklungsvorhabens basiert und eine gegenseitige Wertschätzung zwischen den Akteuren voraussetzt. In diesem Prozess entwickelt sich im Laufe der Zeit die „lernende“ Bauernorganisation auch zu einer „lehrenden“ Organisation und wird dadurch eine Quelle der Inspiration für die Gesamtgesellschaft. Die Nachhaltigkeit von ländlichen Entwicklungsprojekten wird damit maßgeblich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mesh generation is an important step inmany numerical methods.We present the “HierarchicalGraphMeshing” (HGM)method as a novel approach to mesh generation, based on algebraic graph theory.The HGM method can be used to systematically construct configurations exhibiting multiple hierarchies and complex symmetry characteristics. The hierarchical description of structures provided by the HGM method can be exploited to increase the efficiency of multiscale and multigrid methods. In this paper, the HGMmethod is employed for the systematic construction of super carbon nanotubes of arbitrary order, which present a pertinent example of structurally and geometrically complex, yet highly regular, structures. The HGMalgorithm is computationally efficient and exhibits good scaling characteristics. In particular, it scales linearly for super carbon nanotube structures and is working much faster than geometry-based methods employing neighborhood search algorithms. Its modular character makes it conducive to automatization. For the generation of a mesh, the information about the geometry of the structure in a given configuration is added in a way that relates geometric symmetries to structural symmetries. The intrinsically hierarchic description of the resulting mesh greatly reduces the effort of determining mesh hierarchies for multigrid and multiscale applications and helps to exploit symmetry-related methods in the mechanical analysis of complex structures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser interdisziplinären Doktorarbeit wird eine (Al)GaN Halbleiteroberflächenmodifikation untersucht, mit dem Ziel eine verbesserte Grenzfläche zwischen dem Material und dem Dielektrikum zu erzeugen. Aufgrund von Oberflächenzuständen zeigen GaN basierte HEMT Strukturen üblicherweise große Einsatzspannungsverschiebungen. Bisher wurden zur Grenzflächenmodifikation besonders die Entfernung von Verunreinigungen wie Sauerstoff oder Kohlenstoff analysiert. Die nasschemischen Oberflächenbehandlungen werden vor der Abscheidung des Dielektrikums durchgeführt, wobei die Kontaminationen jedoch nicht vollständig entfernt werden können. In dieser Arbeit werden Modifikationen der Oberfläche in wässrigen Lösungen, in Gasen sowie in Plasma analysiert. Detaillierte Untersuchungen zeigen, dass die inerte (0001) c-Ebene der Oberfläche kaum reagiert, sondern hauptsächlich die weniger polaren r- und m- Ebenen. Dies kann deutlich beim Defektätzen sowie bei der thermischen Oxidation beobachtet werden. Einen weiteren Ansatz zur Oberflächenmodifikation stellen Plasmabehandlungen dar. Hierbei wird die Oberflächenterminierung durch eine nukleophile Substitution mit Lewis Basen, wie Fluorid, Chlorid oder Oxid verändert, wodurch sich die Elektronegativitätsdifferenz zwischen dem Metall und dem Anion im Vergleich zur Metall-Stickstoff Bindung erhöht. Dies führt gleichzeitig zu einer Erhöhung der Potentialdifferenz des Schottky Kontakts. Sauerstoff oder Fluor besitzen die nötige thermische Stabilität um während einer Silicium-nitridabscheidung an der (Al)GaN Oberfläche zu bleiben. Sauerstoffvariationen an der Oberfläche werden in NH3 bei 700°C, welches die nötigen Bedingungen für die Abscheidung darstellen, immer zu etwa 6-8% reduziert – solche Grenzflächen zeigen deswegen auch keine veränderten Ergebnisse in Einsatzspannungsuntersuchungen. Im Gegensatz dazu zeigt die fluorierte Oberfläche ein völlig neues elektrisches Verhalten: ein neuer dominanter Oberflächendonator mit einem schnellen Trapping und Detrapping Verhalten wird gefunden. Das Energieniveau dieses neuen, stabilen Donators liegt um ca. 0,5 eV tiefer in der Bandlücke als die ursprünglichen Energieniveaus der Oberflächenzustände. Physikalisch-chemische Oberflächen- und Grenzflächenuntersuchung mit XPS, AES oder SIMS erlauben keine eindeutige Schlussfolgerung, ob das Fluor nach der Si3N4 Abscheidung tatsächlich noch an der Grenzfläche vorhanden ist, oder einfach eine stabilere Oberflächenrekonstruktion induziert wurde, bei welcher es selbst nicht beteiligt ist. In beiden Fällen ist der neue Donator in einer Konzentration von 4x1013 at/cm-2 vorhanden. Diese Dichte entspricht einer Oberflächenkonzentration von etwa 1%, was genau an der Nachweisgrenze der spektroskopischen Methoden liegt. Jedoch werden die elektrischen Oberflächeneigenschaften durch die Oberflächenmodifikation deutlich verändert und ermöglichen eine potentiell weiter optimierbare Grenzfläche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch steigende Scharzahlen und Arbeitsbreiten bei Anbaupflügen tritt eine Asymmetrie der Krafteinleitung in den Schlepper auf. Zusammen mit der hohen Zugkraft, die benötigt wird, ist diese Art der Krafteinleitung einmalig in der Landtechnik. Durch die eingeleiteten Kräfte entstehen Seitenkräfte, welche auf die Achsen des Schleppers und auf die Anlagen der Schare wirken. Ziel der Arbeit ist es, einen mechanischen Ansatz zu erstellen, der es ermöglicht auf Basis von Unterlenkerstellung und gemessenen Unterlenkerkräften die Kräfteverhältnisse an der Zugmaschine zu berechnen. Außerdem werden die Einflüsse auf die Kräfte durch Variation von Frontballastierung, Unterlenkerstellung und Arbeitsbreite ermittelt. Bisherige Literaturangaben geben unterschiedliche Empfehlungen zur korrekten Einstellung der Unterlenkerstellung an. In dieser Arbeit wird der Einfluss der Unterlenkerverstellung ermittelt, um die grundsätzlichen Einflüsse der Veränderung der Unterlenkerstellung verfügbar zu machen. Es können durch die Unterlenkerverstellung die auftretenden Kräfte umverteilt werden. Ein starker Einfluss der Unterlenkerstellung auf die benötigte Zugkraft des Pfluges kann bei den Versuchen nicht gemessen werden. Es wird ermittelt, welchen Einfluss eine Arbeitsbreitenverstellung auf die Unterlenkerkräfte hat. Bei Vergrößerung der Arbeitsbreite steigen die Zugkräfte des landseitigen Unterlenkers an. Gleichzeitig sinkt die Zugkraft des furchenseitigen Unterlenkers, jedoch in geringerem Maße als der Anstieg des landseitigen Unterlenkers. Die ermittelten Einflüsse auf die Unterlenkerkräfte werden in die Einflüsse auf die Querkräfte der Schlepperachsen umgerechnet. Mit diesen Werten wird es ermöglicht, Änderungen der Querkräfte und des Querkraftverhältnisses zu ermitteln. Die vorliegenden Ergebnisse erlauben es, für neue Pflugentwicklungen optimierte Kinematiken abzuleiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, researchers in artificial intelligence have become interested in replicating human physical reasoning talents in computers. One of the most important skills in this area is predicting how physical systems will behave. This thesis discusses an implemented program that generates algebraic descriptions of how systems of rigid bodies evolve over time. Discussion about the design of this program identifies a physical reasoning paradigm and knowledge representation approach based on mathematical model construction and algebraic reasoning. This paradigm offers several advantages over methods that have become popular in the field, and seems promising for reasoning about a wide variety of classical mechanics problems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The algebraic-geometric structure of the simplex, known as Aitchison geometry, is used to look at the Dirichlet family of distributions from a new perspective. A classical Dirichlet density function is expressed with respect to the Lebesgue measure on real space. We propose here to change this measure by the Aitchison measure on the simplex, and study some properties and characteristic measures of the resulting density

Relevância:

10.00% 10.00%

Publicador:

Resumo:

First discussion on compositional data analysis is attributable to Karl Pearson, in 1897. However, notwithstanding the recent developments on algebraic structure of the simplex, more than twenty years after Aitchison’s idea of log-transformations of closed data, scientific literature is again full of statistical treatments of this type of data by using traditional methodologies. This is particularly true in environmental geochemistry where besides the problem of the closure, the spatial structure (dependence) of the data have to be considered. In this work we propose the use of log-contrast values, obtained by a simplicial principal component analysis, as LQGLFDWRUV of given environmental conditions. The investigation of the log-constrast frequency distributions allows pointing out the statistical laws able to generate the values and to govern their variability. The changes, if compared, for example, with the mean values of the random variables assumed as models, or other reference parameters, allow defining monitors to be used to assess the extent of possible environmental contamination. Case study on running and ground waters from Chiavenna Valley (Northern Italy) by using Na+, K+, Ca2+, Mg2+, HCO3-, SO4 2- and Cl- concentrations will be illustrated

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The occurrence of negative values for Fukui functions was studied through the electronegativity equalization method. Using algebraic relations between Fukui functions and different other conceptual DFT quantities on the one hand and the hardness matrix on the other hand, expressions were obtained for Fukui functions for several archetypical small molecules. Based on EEM calculations for large molecular sets, no negative Fukui functions were found