988 resultados para NEURAL-BASIS


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work is intended to study the following important aspects of document image processing and develop new methods. (1) Segmentation ofdocument images using adaptive interval valued neuro-fuzzy method. (2) Improving the segmentation procedure using Simulated Annealing technique. (3) Development of optimized compression algorithms using Genetic Algorithm and parallel Genetic Algorithm (4) Feature extraction of document images (5) Development of IV fuzzy rules. This work also helps for feature extraction and foreground and background identification. The proposed work incorporates Evolutionary and hybrid methods for segmentation and compression of document images. A study of different neural networks used in image processing, the study of developments in the area of fuzzy logic etc is carried out in this work

Relevância:

20.00% 20.00%

Publicador:

Resumo:

MicroRNAs are short non-coding RNAs that can regulate gene expression during various crucial cell processes such as differentiation, proliferation and apoptosis. Changes in expression profiles of miRNA play an important role in the development of many cancers, including CRC. Therefore, the identification of cancer related miRNAs and their target genes are important for cancer biology research. In this paper, we applied TSK-type recurrent neural fuzzy network (TRNFN) to infer miRNA–mRNA association network from paired miRNA, mRNA expression profiles of CRC patients. We demonstrated that the method we proposed achieved good performance in recovering known experimentally verified miRNA–mRNA associations. Moreover, our approach proved successful in identifying 17 validated cancer miRNAs which are directly involved in the CRC related pathways. Targeting such miRNAs may help not only to prevent the recurrence of disease but also to control the growth of advanced metastatic tumors. Our regulatory modules provide valuable insights into the pathogenesis of cancer

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In our study we use a kernel based classification technique, Support Vector Machine Regression for predicting the Melting Point of Drug – like compounds in terms of Topological Descriptors, Topological Charge Indices, Connectivity Indices and 2D Auto Correlations. The Machine Learning model was designed, trained and tested using a dataset of 100 compounds and it was found that an SVMReg model with RBF Kernel could predict the Melting Point with a mean absolute error 15.5854 and Root Mean Squared Error 19.7576

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Metal matrix composites (MMC) having aluminium (Al) in the matrix phase and silicon carbide particles (SiCp) in reinforcement phase, ie Al‐SiCp type MMC, have gained popularity in the re‐cent past. In this competitive age, manufacturing industries strive to produce superior quality products at reasonable price. This is possible by achieving higher productivity while performing machining at optimum combinations of process variables. The low weight and high strength MMC are found suitable for variety of components

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The paper investigates the feasibility of implementing an intelligent classifier for noise sources in the ocean, with the help of artificial neural networks, using higher order spectral features. Non-linear interactions between the component frequencies of the noise data can give rise to certain phase relations called Quadratic Phase Coupling (QPC), which cannot be characterized by power spectral analysis. However, bispectral analysis, which is a higher order estimation technique, can reveal the presence of such phase couplings and provide a measure to quantify such couplings. A feed forward neural network has been trained and validated with higher order spectral features

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Gewindefurchen ist ein spanloses Fertigungsverfahren zur Herstellung von Innengewinden. Es bietet wesentliche Vorteile gegenüber der spanenden Innengewindeherstellung, wie z.B. keine Notwendigkeit zur Spanentsorgung, höhere Festigkeit der Gewindeflanken und eine erhöhte Prozessgeschwindigkeit. Um die Vorteile des Verfahrens unter wirtschaftlichen und technologischen Aspekten besser auszunutzen, bietet die Weiterentwicklung der Werkzeuggeometrie sowohl im makroskopischen als auch im mikroskopischen Bereich ein enormes Potential, welches nicht nur bezüglich der Standzeit bzw. Standmenge und Prozessgeschwindigkeit, sondern auch hinsichtlich der Qualität der erzeugten Gewinde erschlossen werden sollte. Durch die empirische Untersuchung der technischen und physikalischen Eigenschaften am Gewindefurcher sollen der Anformbereich und die Formkeilgeometrie in Abhängigkeit verschiedener Prozessparameter und Werkstoffe verbessert werden, um optimale Bearbeitungsergebnisse hinsichtlich der hergestellten Gewindefurchen und des auftretenden Verschleißes am Gewindefurcher bzw. Formkeils zu erreichen. Die Basis dieser Untersuchungen bildet ein neuartiger Modellversuch, bei dem modifizierte Gewindefurcher verwendet werden, die derart umgestaltet sind, dass von einem üblichen Gewindefurcher durch Umschleifen nur noch ein einzelner Gewindegang am Werkzeug verbleibt. Dadurch ist es möglich, in einer vergrößerten Vorbohrung mit einem Formkeil die einzelnen Umformstufen beim Gewindefurchen separat zu fertigen, die auftretenden Prozesskräfte während des Eingriffs in das Werkstück zu messen und das Bearbeitungsergebnis im Werkstück und den Verschleiß am Formkeil zu bewerten. Weiterhin wird eine rein theoretische Methode beschrieben, mit der die Berechnung der Umformkraft und darauf basierend der Furchmomente am Formkeil bzw. dem ganzen Gewindefurcher möglich ist. Durch die Kenntnis der berechneten Kräfte und Momente am einzelnen Formkeil bzw. dem Gewindefurcher kann bereits in der Konzeptionsphase eines Gewindefurchers eine Anpassung des Werkszeuges an die jeweiligen Bearbeitungsanforderungen durchgeführt werden, wodurch der Entwurf von Gewindefurchern wesentlich wirtschaftlicher realisierbar ist, als durch rein empirische Herangehensweisen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ein Luft-Erdwärmetauscher (L-EWT) kommt wegen seines niedrigen Energiebedarfs und möglicher guter Aufwandszahlen als umweltfreundliche Versorgungskomponente für Gebäude in Betracht. Dabei ist besonders vorteilhaft, dass ein L-EWT die Umgebungsluft je nach Jahreszeit vorwärmen oder auch kühlen kann. Dem zufolge sind L-EWT zur Energieeinsparung nicht nur für den Wohnhausbau interessant, sondern auch dort, wo immer noch große Mengen an fossiler Energie für die Raumkühlung benötigt werden, im Büro- und Produktionsgebäudesektor. Der Einsatzbereich eines L-EWT liegt zwischen Volumenströmen von 100 m3/h und mehreren 100.000 m3/h. Aus dieser Bandbreite und den instationären Randbedingungen entstehen erhebliche Schwierigkeiten, allgemeingültige Aussagen über das zu erwartende thermische Systemverhalten aus der Vielzahl möglicher Konstruktionsvarianten zu treffen. Hauptziel dieser Arbeit ist es, auf Basis umfangreicher, mehrjähriger Messungen an einer eigens konzipierten Testanlage und eines speziell angepassten numerischen Rechenmodells, Kennzahlen zu entwickeln, die es ermöglichen, die Betriebseigenschaften eines L-EWT im Planungsalltag zu bestimmen und ein technisch, ökologisch wie ökonomisch effizientes System zu identifizieren. Es werden die Kennzahlen elewt (Aufwandszahl), QV (Netto-Volumenleistung), ME (Meterertrag), sowie die Kombination aus v (Strömungsgeschwindigkeit) und VL (Metervolumenstrom) definiert, die zu wichtigen Informationen führen, mit denen die Qualität von Systemvarianten in der Planungsphase bewertet werden können. Weiterführende Erkenntnisse über die genauere Abschätzung von Bodenkennwerten werden dargestellt. Die hygienische Situation der durch den L-EWT transportierten Luft wird für die warme Jahreszeit, aufgrund auftretender Tauwasserbildung, beschrieben. Aus diesem Grund werden alle relevanten lufthygienischen Parameter in mehreren aufwendigen Messkampagnen erfasst und auf pathogene Wirkungen überprüft. Es wird über Sensitivitätsanalysen gezeigt, welche Fehler bei Annahme falscher Randbedingungen eintreten. Weiterhin werden in dieser Arbeit wesentliche, grundsätzliche Erkenntnisse aufbereitet, die sich aus der Betriebsbeobachtung und der Auswertung der umfangreich vorliegenden Messdaten mehrerer Anlagen ergeben haben und für die praktische Umsetzung und die Betriebsführung bedeutend sind. Hinweise zu Materialeigenschaften und zur Systemwirtschaftlichkeit sind detailliert aufgeführt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der pH-Wert stellt in der Chemie, Physik, Biologie, Pharmazie und Medizin eine wichtige Meßgröße dar, da eine Vielzahl von Reaktionen durch den pH-Wert bestimmt wird. In der Regel werden zur pH-Wert-Messung Glaselektroden eingesetzt. Hierbei konnte der pH-sensitive Bereich zwar bis auf einige Mikrometer reduziert werden, aber die Gesamtab-messungen betragen immer noch 15-20 cm. Mit der Einführung miniaturisierter Reaktionsgefäße ist daher der Bedarf an miniaturisierten Sensoren enorm gestiegen. Um in solchen Gefäßen Reaktionsparameter wie z. B. den pH-Wert zu kontrollieren, müssen die Gesamtabmessungen der Sensoren verringert werden. Dies lässt sich mit Hilfe der Mikrostrukturtechnik von Silizium realisieren. Hiermit lassen sich Strukturen und ganze Systeme bis in den Nanometerbereich herstellen. Basierend auf Silizium und Gold als Elektrodenmaterial wurden im Rahmen dieser Arbeit verschiedene Interdigitalstrukturen hergestellt. Um diese Strukturen zur pH-Wert-Messungen einsetzen zu können, müssen sie mit einer pH-sensitiven Schicht versehen werden. Hierbei wurde Polyanilin, ein intrinsisch leitendes Polymer, aufgrund seine pH-abhängigen elektrischen und optischen Verhaltens eingesetzt. Die Beschichtung dieser Sensoren mit Polyanilin erfolgte vorwiegend elektrochemisch mit Hilfe der Zyklovoltammetrie. Neben der Herstellung reiner Polyanilinfilme wurden auch Kopolymerisationen von Anilin und seinen entsprechenden Aminobenzoesäure- bzw. Aminobenzensulfonsäurederivaten durchgeführt. Ergebnisse dazu werden vorgestellt und diskutiert. Zur Charakterisierung der resultierenden Polyanilin- und Kopolymerfilme auf den Inter-digitalstrukturen wurden mit Hilfe der ATR-FT-IR-Spektroskopie Spektren aufgenommen, die gezeigt und diskutiert werden. Eine elektrochemische Charakterisierung der Polymere erfolgte mittels der Zyklovoltammetrie. Die mit Polyanilin bzw. seinen Kopolymeren beschichteten Sensoren wurden dann für Widerstandsmessungen an den Polymerfilmen in wässrigen Medien eingesetzt. Polyanilin zeigt lediglich eine pH-Sensitivität in einem pH-Bereich von pH 2 bis pH 4. Durch den Einsatz der Kopolymere konnte dieser pH-sensitive Bereich jedoch bis zu einem pH-Wert von 10 ausgeweitet werden. Zur weiteren Miniaturisierung der Sensoren wurde das Konzept der interdigitalen Elektroden-paare auf Cantilever übertragen. Die pH-sensitive Zone konnte dabei auf 500 µm2 bei einer Gesamtlänge des Sensors (Halter mit integriertem Cantilever) von 4 mm reduziert werden. Neben den elektrischen pH-abhängigen Eigenschaften können auch die optischen Eigen-schaften des Polyanilins zur pH-Detektion herangezogen werden. Diese wurden zunächst mit Hilfe der UV-VIS-Spektroskopie untersucht. Die erhaltenen Spektren werden gezeigt und kurz diskutiert. Mit Hilfe eines Raster-Sonden-Mikroskops (a-SNOM, Firma WITec) wurden Reflexionsmessungen an Polyanilinschichten durchgeführt. Zur weiteren Miniaturisierung wurden Siliziumdioxidhohlpyramiden (Basisfläche 400 µm2) mit Spitzenöffnungen in einem Bereich von 50-150 nm mit Polyanilin beschichtet. Auch hier sollten die optischen Eigenschaften des Polyanilins zur pH-Wert-Sensorik ausgenutzt werden. Es werden erste Messungen an diesen Strukturen in Transmission diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bei der Bestimmung der irreduziblen Charaktere einer Gruppe vom Lie-Typ entwickelte Lusztig eine Theorie, in der eine sogenannte Fourier-Transformation auftaucht. Dies ist eine Matrix, die nur von der Weylgruppe der Gruppe vom Lie-Typ abhängt. Anhand der Eigenschaften, die eine solche Fourier- Matrix erfüllen muß, haben Geck und Malle ein Axiomensystem aufgestellt. Dieses ermöglichte es Broue, Malle und Michel füur die Spetses, über die noch vieles unbekannt ist, Fourier-Matrizen zu bestimmen. Das Ziel dieser Arbeit ist eine Untersuchung und neue Interpretation dieser Fourier-Matrizen, die hoffentlich weitere Informationen zu den Spetses liefert. Die Werkzeuge, die dabei entstehen, sind sehr vielseitig verwendbar, denn diese Matrizen entsprechen gewissen Z-Algebren, die im Wesentlichen die Eigenschaften von Tafelalgebren besitzen. Diese spielen in der Darstellungstheorie eine wichtige Rolle, weil z.B. Darstellungsringe Tafelalgebren sind. In der Theorie der Kac-Moody-Algebren gibt es die sogenannte Kac-Peterson-Matrix, die auch die Eigenschaften unserer Fourier-Matrizen besitzt. Ein wichtiges Resultat dieser Arbeit ist, daß die Fourier-Matrizen, die G. Malle zu den imprimitiven komplexen Spiegelungsgruppen definiert, die Eigenschaft besitzen, daß die Strukturkonstanten der zugehörigen Algebren ganze Zahlen sind. Dazu müssen äußere Produkte von Gruppenringen von zyklischen Gruppen untersucht werden. Außerdem gibt es einen Zusammenhang zu den Kac-Peterson-Matrizen: Wir beweisen, daß wir durch Bildung äußerer Produkte von den Matrizen vom Typ A(1)1 zu denen vom Typ C(1) l gelangen. Lusztig erkannte, daß manche seiner Fourier-Matrizen zum Darstellungsring des Quantendoppels einer endlichen Gruppe gehören. Deswegen ist es naheliegend zu versuchen, die noch ungeklärten Matrizen als solche zu identifizieren. Coste, Gannon und Ruelle untersuchen diesen Darstellungsring. Sie stellen eine Reihe von wichtigen Fragen. Eine dieser Fragen beantworten wir, nämlich inwieweit rekonstruiert werden kann, zu welcher endlichen Gruppe gegebene Matrizen gehören. Den Darstellungsring des getwisteten Quantendoppels berechnen wir für viele Beispiele am Computer. Dazu müssen unter anderem Elemente aus der dritten Kohomologie-Gruppe H3(G,C×) explizit berechnet werden, was bisher anscheinend in noch keinem Computeralgebra-System implementiert wurde. Leider ergibt sich hierbei kein Zusammenhang zu den von Spetses herrührenden Matrizen. Die Werkzeuge, die in der Arbeit entwickelt werden, ermöglichen eine strukturelle Zerlegung der Z-Ringe mit Basis in bekannte Anteile. So können wir für die meisten Matrizen der Spetses Konstruktionen angeben: Die zugehörigen Z-Algebren sind Faktorringe von Tensorprodukten von affinen Ringe Charakterringen und von Darstellungsringen von Quantendoppeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A fully relativistic four-component Dirac-Fock-Slater program for diatomics, with numerically given AO's as basis functions is presented. We discuss the problem of the errors due to the finite basis-set, and due to the influence of the negative energy solutions of the Dirac Hamiltonian. The negative continuum contributions are found to be very small.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nach einem einleitenden ersten Kapitel wird im zweiten Kapitel der Stand der Technik für Regelungs- und Monitoringsysteme mit vernetzten Systemen dargestellt. Daraus wird die Motivation zur Entwicklung neuer, kostengünstiger Systeme abgeleitet. Im dritten Kapitel folgt eine Darstellung der verschiedenen Arten marktverfügbarer Embedded Systems und dafür geeigneter Betriebs­systeme. Anforderungen an verteilte Regelungssysteme, unterschiedliche Strukturen dieser Systeme und deren Vor- und Nachteile sind Gegenstand des vierten Kapitels. Anhand von Beispielen aus den Bereichen Erzeugungsmanagement für den Betrieb von KWK-Anlagen, Energieverbrauchsmonitoring und Smart-Metering wird der Einsatz von verteilten Regelungs- und Monitoringsystemen im fünften Kapitel dargestellt. Im folgenden sechsten Kapitel wird die Bedeutung normierter Kommunikation für den Einsatz in verteilten Systemen sowie dafür vorhandene Standards aus der elektrischen Energieversorgungstechnik und der Automatisierungstechnik behandelt. Der Stand der Internet-Technik für verteilte Systeme ist Gegenstand des siebten Kapitels. Dabei werden zunächst die verschiedenen drahtlosen und drahtgebundenen Kommunikationsmedien vorgestellt und ihre Eigenschaften und die Rand­bedingungen für ihren Einsatz erörtert. Ebenso werden technische Probleme beim Einsatz der Internet-Technik aufgezeigt und Lösungsmöglichkeiten für diese Probleme dargestellt. Es folgt eine Übersicht von Netzwerkdiensten, die für den Betrieb von verteilten Systemen notwendig sind. Außerdem werden Techniken zur Überwachung von verteilten Systemen behandelt. Kapitel acht zeigt Sicherheitsrisiken bei der Nutzung des Internets auf und bewertet verschiedene Techniken zur Absicherung des Netzwerkverkehrs. Kapitel neun stellt ein Internet-basiertes Client-Server-System zur Online-Visualisierung von Anlagendaten im Webbrowser mit Hilfe von Java-Applets und XML-RPC vor. Die Visualisierung von Anlagendaten auf Mobiltelefonen mit Hilfe des Wireless Application Protocol sowie die dafür notwendige Software und Infrastruktur ist Gegenstand des zehnten Kapitels. Im elften Kapitel wird eine neuartige Software für die Simulation von dezentralen Energiesystemen und deren Regelungs­systemen auf Basis von virtuellen Maschinen, virtuellen Netzwerken und einer thermischen Simulationsumgebung vorgestellt sowie deren Anwendung für die Reglerentwicklung erklärt. Verschiedene Techniken für die Installation von Betriebssystemen und Software für die Embedded Systems eines verteilten Systems werden im Kapitel zwölf untersucht. Im Kapitel 13 werden verschiedene Technologien zur Konfiguration und Parametrierung von Regelungssystemen in der industriellen Prozess- und Fertigungs­automatisierung hinsichtlich ihrer Eignung für dezentrale Energiesysteme analysiert. Anschließend wird eine Software zur Installation und Parametrierung von Monitoringsystemen sowie der dazugehörigen Infrastruktur vorgestellt. Kapitel 14 beschäftigt sich mit Anforderungen an die Hardware für verteilte Systeme und mit Maßnahmen zur Erhöhung der Betriebs- und der Datensicherheit. Im 15. Kapitel werden die in den bisherigen Kapiteln vorgestellten Techniken anhand eines großen verteilten Monitoringsystems und anhand eines Power Flow and Power Quality Management Systems auf Basis von verteilten Embedded Systems evaluiert. Kapitel 16 fasst die Ergebnisse der Arbeit zusammen und enthält einen Ausblick auf zukünftige Entwicklungen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Relativistic density functional theory is widely applied in molecular calculations with heavy atoms, where relativistic and correlation effects are on the same footing. Variational stability of the Dirac Hamiltonian is a very important field of research from the beginning of relativistic molecular calculations on, among efforts for accuracy, efficiency, and density functional formulation, etc. Approximations of one- or two-component methods and searching for suitable basis sets are two major means for good projection power against the negative continuum. The minimax two-component spinor linear combination of atomic orbitals (LCAO) is applied in the present work for both light and super-heavy one-electron systems, providing good approximations in the whole energy spectrum, being close to the benchmark minimax finite element method (FEM) values and without spurious and contaminated states, in contrast to the presence of these artifacts in the traditional four-component spinor LCAO. The variational stability assures that minimax LCAO is bounded from below. New balanced basis sets, kinetic and potential defect balanced (TVDB), following the minimax idea, are applied with the Dirac Hamiltonian. Its performance in the same super-heavy one-electron quasi-molecules shows also very good projection capability against variational collapse, as the minimax LCAO is taken as the best projection to compare with. The TVDB method has twice as many basis coefficients as four-component spinor LCAO, which becomes now linear and overcomes the disadvantage of great time-consumption in the minimax method. The calculation with both the TVDB method and the traditional LCAO method for the dimers with elements in group 11 of the periodic table investigates their difference. New bigger basis sets are constructed than in previous research, achieving high accuracy within the functionals involved. Their difference in total energy is much smaller than the basis incompleteness error, showing that the traditional four-spinor LCAO keeps enough projection power from the numerical atomic orbitals and is suitable in research on relativistic quantum chemistry. In scattering investigations for the same comparison purpose, the failure of the traditional LCAO method of providing a stable spectrum with increasing size of basis sets is contrasted to the TVDB method, which contains no spurious states already without pre-orthogonalization of basis sets. Keeping the same conditions including the accuracy of matrix elements shows that the variational instability prevails over the linear dependence of the basis sets. The success of the TVDB method manifests its capability not only in relativistic quantum chemistry but also for scattering and under the influence of strong external electronic and magnetic fields. The good accuracy in total energy with large basis sets and the good projection property encourage wider research on different molecules, with better functionals, and on small effects.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.