141 resultados para Implementierung
Resumo:
Bit serial, processing, digital signal processing, transmission, time division, linear programming, linear optimization
Resumo:
Magdeburg, Univ., Fak. für Maschinenbau, Diss., 2008
Resumo:
Eine Vektoroperation ist die Berechnung von Vektoren. Zum Beispiel Addition, Subtraktion und skalares Produkt. Die Vektoroperation wird meistens für die Berechnung von Signalen, z.B. Faltung verwendet. Ein Programm ist für die Operationen entworfen worden. Mit welchen Methoden kann eine Vektoroperation mit vielen Elementen einfach sein und wie kann die Robustheit des Programms stabil sein? Diese Probleme sollen in dieser Arbeit untersucht und gelöst werden. Hierfür wurde die sichere Programmiersprache SPARK2014 gewählt, um die Robustheit des Programms realisieren zu können. Und das wichtigste Werkzeug, die Vor- und Nachbedingung von SPARK2014, wurde verwendet. Für das Programm ist ein mathematisches Konzept wichtig, es ist die Basis der dynamischen Programmierung. Am Anfang wurden mögliche Vor- und Nachbedingungen geschrieben. Anschließend durch mathematische Kenntnisse ,Notwendig und Hinreichende Bedingung‘ wurden die repräsentativen Vorbedingungen gewählt und die Reihenfolge der Vorgehensweise festgelegt. Danach wurde die Methode durch mathematische Kenntnisse nachgewiesen. Zum Schluss wurden die entworfenen Vor- und Nachbedingungen durch die mathematischen Beispiele getestet.
Resumo:
Das Thema „Robuste Implementierung numerischer Vektoroperationen“ ist Gegenstand dieser Bachelorarbeit. Um numerische Vektoroperationen robust implementieren zu können, muss man einen Code schreiben. Darin sollten nicht nur die Fehler der Vektoroperationen getestet, sondern auch eine Begrenzung der eingegebenen und ausgegebenen Werte entworfen werden. Die erste Aufgabe ist der Entwurf der Vor- und Nachbedingung in der Programmierumgebung Spark. SPARK ist eine formal definierte Computerprogrammiersprache basierend auf der Ada Programmiersprache. Sie ist eine Softwareentwicklungstechnologie, die mit hoher Zuverlässigkeit konzipiert wurde. Allgemein gesagt, die Aufgaben in dieser Arbeit sind folgendermaßen: 1. Entwurf und Programmierung der Vor- und Nachbedingung im Spark2. Entwurf und Programmierung der Testprogramm für alle Vor- und Nachbedingungen. Als Lösungskonzept soll in der Aufgabe eine Bibliothek über den Test der numerischen Vektoroperationen entwickelt werden. Zuerst muss man alle Vektoroperationen kennen. Der nächste Schritt ist die Analysierung der potenziellen Fehler bei den Vektoroperationen. Hier ist eine mathematische Analyse sehr wichtig. Mit Hilfe der mathematischen Grundlagen kann der Plan für den Entwurf der Vor- und Nachbedingung umgesetzt werden. Danach erfolgt der Entwurf der Hilfsfunktionen für die Vor- und Nachbedingung. Mit Hilfe der Verwendung der Hilfsfunktion in der Spezifikationsdatei können Fehler vermieden werden und die Codes bleiben sauber. Am Ende erfolgt die Programmierung aller Vor- und Nachbedingungen für alle Vektoroperationen.
Resumo:
This thesis contains three parts. The first one offers the theoretical basement, where the history of the police from their beginning in the early 19th century to this day is shown. The emphasis however is laid on the last 40 years, which gave birth to a multitude of innovations, such as community, problem-oriented, hot-spots or zero-tolerance policing. Those innovations are described in detail and are critically commented. At the end of this section, I present a scheme, where all the approaches are classified as strategic or methodic innovations, but united under a model called "modern policing". The fact that the innovations are not competitive but rather complementary is the most important finding of this examination. The second part of this work deals with a unique survey about the implementation of four innovations and eight problem- and community-oriented activities in 85 Swiss police forces. This explorative study shows that in the last 15 years the Swiss police forces have increasingly adopted innovative approaches. The most frequent innovation is community policing, which has been implemented all over the country. Due to the results, we can also assume that the implementation of the innovations is mostly substantial and profound. However, particularly in the area of problem-solving there is still a need for improvements. The third section consists of a scientific evaluation of a temporary special unit of the municipal police Zurich, which, during nine months, fought against public drug dealing and illegal prostitution in a particular neighborhood called Langstrasse. The effects of this hot-spot project were measured with police data, observations and several population surveys. In general, the special unit achieved a positive outcome and helped to defuse the hot-spot. Additionally, a survey conducted within the police department showed that the personal attitude towards the special unit differed widely between the policemen. We found significant differences between both police regions East and West, rank-and-file and higher ranking officers, different ages and the personal connection to the special unit. In fact, the higher the rank, the lower the age, and the closer the relationship, the more positive the officers were towards the unit.
Resumo:
Grenzwertberechnung ist ein unbeliebtes Gebiet der Mathematik. Jeder Schüler hasst es. Das liegt daran, dass es kein universelles Kochrezept gibt, das einen automatisch zur Lösung führt. Statt dessen muss man verschiedenste Ansätze daraufhin überprüfen, ob sie einen einer Lösung näher bringen. Computeralgebra leidet unter dem gleichen Problem, denn Computer lieben Kochrezepte ebenfalls. Entsprechend haben manche Computeralgebrasysteme auch heute noch starke Probleme mit Grenzwerten. 1996 stellte Dominik Gruntz in seiner Dissertation "On Computing Limits in a Symbolic Manipulation System" einen Algorithmus vor, der eine Vielzahl komplexer Grenzwertaufgaben souverän und schnell lösen kann und der dennoch durch seine Einfachheit und Überschaubarkeit besticht. Ziel dieser Diplomarbeit ist es, den Algorithmus von Dominik Gruntz vorzustellen und im Computeralgebrasystem Mathematica zu implementieren.
Resumo:
In dieser Arbeit wird ein modulares Agentensystem entworfen und auf einer marktüblichen PC-basierten SPS-Steuerung implementiert, welches in der Lage ist, den logistischen Anlagenteil eines Hybriden Prozessmodells abhängig von einem dynamischen Energiepreis zu steuern. Dies wird durch die Rekonfiguration und energetische Optimierung der Funktionen einzelner Module auf Grundlage eines Umweltmodells durch Softwareagenten erreicht. Dieses Umweltmodell wird zunächst in verschiedenen Diagrammen der objektorientierten Modellierungssprachen UML und SysML modelliert. Hierfür werden im Rahmen dieser Arbeit dazu notwendige Erweiterungen des Timing-Diagramms der UML entworfen. Das Agentensystem wird mit der Methode Gaia entworfen. Durch das in dieser Methode enthaltene Rollenkonzept werden Möglichkeiten zur Wiederverwendung von Teilen des Entwurfs auch innerhalb von anderen Arbeiten ermöglicht. Die Echtzeitanforderungen, welche sich an die Steuerungssoftware des logistischen Prozesses ergeben, können bei dem Entwurf durch Gaia modelliert werden. Das im Vorgehen nach Gaia enthaltene Bekanntschaftsmodell wird um die Darstellung weiterer wichtiger Informationen erweitert.
Resumo:
In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.
Resumo:
Die Themengebiete dieser Arbeit umfassen sowohl methodische Weiterentwicklungen im Rahmen der ab initio zweiter Ordnungsmethoden CC2 und ADC(2) als auch Anwendungen dieser Weiterentwick-lungen auf aktuelle Fragestellungen. Die methodischen Erweiterungen stehen dabei hauptsächlich im Zusammenhang mit Übergangsmomenten zwischen angeregten Zuständen. Durch die Implementie-rung der selbigen ist nun die Berechnung transienter Absorptionsspektren möglich. Die Anwendungen behandeln vorwiegend das Feld der organischen Halbleiter und deren photo-elektronische Eigen-schaften. Dabei spielen die bislang wenig erforschten Triplett-Excimere eine zentrale Rolle.rnDie Übergangsmomente zwischen angeregten Zuständen wurden in das Programmpaket TUR-BOMOLE implementiert. Dadurch wurde die Berechnung der Übergangsmomente zwischen Zustän-den gleicher Multiplizität (d.h. sowohl Singulett-Singulett- als auch Triplett-Triplett-Übergänge) und unterschiedlicher Multiplizität (also Singulett-Triplett-Übergänge) möglich. Als Erweiterung wurde durch ein Interface zum ORCA Programm die Berechnung von Spin-Orbit-Matrixelementen (SOMEs) implementiert. Des Weiteren kann man mit dieser Implementierung auch Übergänge in offenschaligen Systemen berechnen. Um den Speicherbedarf und die Rechenzeit möglichst gering zu halten wurde die resolution-of-the-identity (RI-) Näherung benutzt. Damit lässt sich der Speicherbedarf von O(N4) auf O(N3) reduzieren, da die mit O(N4) skalierenden Größen (z. B. die T2-Amplituden) sehr effizient aus RI-Intermediaten berechnet werden können und daher nicht abgespeichert werden müssen. Dadurch wird eine Berechnung für mittelgroße Moleküle (ca. 20-50 Atome) mit einer angemessenen Basis möglich.rnDie Genauigkeit der Übergangsmomente zwischen angeregten Zuständen wurde für einen Testsatz kleiner Moleküle sowie für ausgewählte größere organische Moleküle getestet. Dabei stellte sich her-aus, dass der Fehler der RI-Näherung sehr klein ist. Die Vorhersage der transienten Spektren mit CC2 bzw. ADC(2) birgt allerdings ein Problem, da diese Methoden solche Zustände nur sehr unzureichend beschreiben, welche hauptsächlich durch zweifach-Anregungen bezüglich der Referenzdeterminante erzeugt werden. Dies ist für die Spektren aus dem angeregten Zustand relevant, da Übergänge zu diesen Zuständen energetisch zugänglich und erlaubt sein können. Ein Beispiel dafür wird anhand eines Singulett-Singulett-Spektrums in der vorliegenden Arbeit diskutiert. Für die Übergänge zwischen Triplettzuständen ist dies allerdings weniger problematisch, da die energetisch niedrigsten Doppelan-regungen geschlossenschalig sind und daher für Tripletts nicht auftreten.rnVon besonderem Interesse für diese Arbeit ist die Bildung von Excimeren im angeregten Triplettzu-stand. Diese können aufgrund starker Wechselwirkungen zwischen den π-Elektronensystemen großer organischer Moleküle auftreten, wie sie zum Beispiel als organische Halbleiter in organischen Leucht-dioden eingesetzt werden. Dabei können die Excimere die photo-elktronischen Eigenschaften dieser Substanzen signifikant beeinflussen. Im Rahmen dieser Dissertation wurden daher zwei solcher Sys-teme untersucht, [3.3](4,4’)Biphenylophan und das Naphthalin-Dimer. Hierzu wurden die transienten Anregungsspektren aus dem ersten angeregten Triplettzustand berechnet und diese Ergebnisse für die Interpretation der experimentellen Spektren herangezogen. Aufgrund der guten Übereinstimmung zwischen den berechneten und den experimentellen Spektren konnte gezeigt werden, dass es für eine koplanare Anordnung der beiden Monomere zu einer starken Kopplung zwischen lokal angereg-ten und charge-transfer Zuständen kommt. Diese Kopplung resultiert in einer signifikanten energeti-schen Absenkung des ersten angeregten Zustandes und zu einem sehr geringen Abstand zwischen den Monomereinheiten. Dabei ist der angeregte Zustand über beide Monomere delokalisiert. Die star-ke Kopplung tritt bei einem intermolekularen Abstand ≤4 Å auf, was einem typischen Abstand in orga-nischen Halbleitern entspricht. In diesem Bereich kann man zur Berechnung dieser Systeme nicht auf die Förster-Dexter-Theorie zurückgreifen, da diese nur für den Grenzfall der schwachen Kopplung gültig ist.
Resumo:
Die Funktionsweise der Laserionenquellenfalle LIST, sowie deren Implementierung bei der Forschungseinrichtung ISOLDE am CERN als neue Standard-Ionenquelle und die ermittelten Spezifikationen Effizienz und Selektivität werden vorgestellt.rnrnDurch die Implementierung der LIST bei ISOLDE konnte on-line mit Hilfe von Radionukliden ein Minimalwert zur Unterdrückung von Kontaminationen durch die LIST bestimmt werden. Die erfolgreiche Unterdrückung von Francium-Kontamination ermöglichte es, neue Messdaten für den mittleren Ladungsradius und die Hyperfeinstruktur für Po-217 zu erzeugen.rnrnUm die Funktionalität der LIST bei ISOLDE hinsichtlich der Ionisationseffizienz gegenüber anderen Ionenquellen einzuordnen, wurden in Mainz am RISIKO-Massenseparator mit der bereits existierenden Standard-Ionenquelle RILIS und der LIST die Effizienzen bestimmt und miteinander verglichen. Es konnte gezeigt werden, dass die LIST im Modus hoher Ionisationseffizienz eine vergleichbare Effizienz aufweist wie die RILIS. Im Modus zur Produktion eines hochreinen Ionenstrahls ist die Ionisationseffizienz gegenüber der RILIS reduziert.rnrnDa die Bestimmung der Selektivität im On-line-Betrieb aufwendig und zeitintensiv ist, wurde die Reinheit des Ionenstrahls am RISIKO-Massenseparator mittels Laufzeitmessungen der Ionen off-line bestimmt und analysiert. Die Zeitstrukturen der RILIS ermöglichen einerseits Rückschlüsse auf die Reinheit des Ionenstrahls zu ziehen, andererseits konnte auch die Ionisation außerhalb des Atomisators, in dem überwiegend die resonante Ionisation stattfindet, nachgewiesen werden. Durch diesen Nachweis kann der Effizienzverlust während der Produktion eines hochreinen Ionenstrahls erklärt werden. Zudem bietet er einen Ansatz für weitere Entwicklungsarbeiten der LIST zur Steigerung der Effizienz.rnrnEine Übertragung der Messergebnisse zur Zeitstruktur der RILIS auf die LIST eröffnet neue Möglichkeiten zur Steigerung deren Selektivität im massenselektiven Mode. Dieser wurde anhand von Simulationen überprüft und mit Messungen an Kalium experimentell quantifiziert.