831 resultados para network-based intrusion detection system


Relevância:

100.00% 100.00%

Publicador:

Resumo:

ZusammenfassungIn der vorliegenden Arbeit ist eine Enzymimmunoelektrode zur Bestimmung von Atrazin in Wasser entwickelt worden. Die Motivation war, einen Immunoassay zu entwickeln, der ohne die speziellen Geräte, wie einen EIA-Reader, durchgeführt werden konnte. Dafür müssen drei Änderungen vorgenommen werden. Es muß das Detektorsystem EIA-Reader zur Meßwerterfassung ersetzt werden, und damit muß die nur im EIA-Reader verwendbare Mikrotiterplatte ausgetauscht werden. Als drittes muß der Immunoassay dem neuen Detektorsystem angepaßt werden. Eine pH-Elektrode wurde anstelle des EIA-Readers benutzt. Als Enzym, das eine pH-Änderung induziert, wurde Lactamase ausgewählt. Als Festphase wurden anstelle der Mikrotiterplatte Polystyrolmikropartikel (PSMP) verwendet. Die Entwicklung der Enzymimmunoelektrode erfolgte in drei Schritten: Entwicklung des Immunoassays für Atrazin unter Verwendung von Lactamase, Übertragung auf die Festphase PSMP und Einsatz der pH-Elektrode als Detektorsystem. Zuerst wurden Tracer mit dem Enzym Lactamase hergestellt. Als Haptene wurden 2-Chlor-4-(isopropylamino)-6-[(1-carboxypent-5-yl)amino]-s-Triazin (iPr/Cl/C6), Di-Chloratrazin und Di-Chlorsimazin verwendet. Es wurden unterschiedliche Testmittelpunkte im Immunoassay erreicht, (iPr/Cl/C6 I50 = 1.22µg/L; Dichloratrazin I50 = 0.27µg/L; Di-Chlorsimazin I50 = 0.12µg/L). Aufgrund der nur mäßigen Stabilität der Tracer unter Verwendung der Di-Chlorderivate wurde auf deren Verwendung bei der Entwicklung der Immunoelektrode verzichtet.Im zweiten Schritt erfolgte die Übertragung auf PSMP. Die Verwendung der PSMP hatte außer einer Verbesserung des Testmittelpunktes auf 1.00µg/L noch den Vorteil, daß die benötigten Mengen an Antikörper verringert werden konnten.Danach wurde die pH-Elektrode als Signalwandler zur Bestimmung des Atrazins eingesetzt. Unter Verwendung der pH-Elektrode konnte der bisher niedrigste Testmittelpunkt (I50 = 0.005µg/L) zur Bestimmung von Atrazin erreicht werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis adresses the problem of localization, and analyzes its crucial aspects, within the context of cooperative WSNs. The three main issues discussed in the following are: network synchronization, position estimate and tracking. Time synchronization is a fundamental requirement for every network. In this context, a new approach based on the estimation theory is proposed to evaluate the ultimate performance limit in network time synchronization. In particular the lower bound on the variance of the average synchronization error in a fully connected network is derived by taking into account the statistical characterization of the Message Delivering Time (MDT) . Sensor network localization algorithms estimate the locations of sensors with initially unknown location information by using knowledge of the absolute positions of a few sensors and inter-sensor measurements such as distance and bearing measurements. Concerning this issue, i.e. the position estimate problem, two main contributions are given. The first is a new Semidefinite Programming (SDP) framework to analyze and solve the problem of flip-ambiguity that afflicts range-based network localization algorithms with incomplete ranging information. The occurrence of flip-ambiguous nodes and errors due to flip ambiguity is studied, then with this information a new SDP formulation of the localization problem is built. Finally a flip-ambiguity-robust network localization algorithm is derived and its performance is studied by Monte-Carlo simulations. The second contribution in the field of position estimate is about multihop networks. A multihop network is a network with a low degree of connectivity, in which couples of given any nodes, in order to communicate, they have to rely on one or more intermediate nodes (hops). Two new distance-based source localization algorithms, highly robust to distance overestimates, typically present in multihop networks, are presented and studied. The last point of this thesis discuss a new low-complexity tracking algorithm, inspired by the Fano’s sequential decoding algorithm for the position tracking of a user in a WLAN-based indoor localization system.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde das Objektbewegungssehen des Goldfischs betrachtet. Zuerst musste eine geeignete Methode gefunden werden, diese Form der Bewegungswahrnehmung untersuchen zu können, da bisherige Experimente zum Bewegungssehen beim Goldfisch ausschließlich mit Hilfe der optomotorischen Folgereaktion gemacht wurden. Anschließend sollte die Frage geklärt werden, ob das Objektbewegungssehen genau wie das Bewegungssehen einer Großfeldbewegung farbenblind ist und welcher Zapfentyp daran beteiligt ist. Die Verwendung eines Zufallpunktmusters zur Dressur auf ein bewegtes Objekt hat sich als äußert erfolgreich herausgestellt. Diese Methode hat den Vorteil, dass sich die Versuchstiere ausschließlich aufgrund der Bewegungsinformation orientieren können. In den Rot-Grün- und Blau-Grün-Transferversuchen zeigte sich, dass das Objektbewegungssehen beim Goldfisch farbenblind ist, aber erstaunlicherweise nicht vom L-Zapfen vermittelt wird, sondern wahrscheinlich vom M-Zapfen. Welchen Vorteil es haben könnte, dass für die verschiedenen Formen der Bewegungswahrnehmung verschiedene Eingänge benutzt werden, kann mit diesen Versuchen nicht geklärt werden. Farbenblindheit des Bewegungssehens scheint eine Eigenschaft visueller Systeme allgemein zu sein. Beim Menschen ist diese Frage im Moment noch nicht geklärt und wird weiterhin diskutiert, da es sowohl Experimente gibt, die zeigen, dass es farbenblind ist, als auch andere, die Hinweise darauf geben, dass es nicht farbenblind ist. Der Vorteil der Farbenblindheit eines bewegungsdetektierenden visuellen Systems zeigt sich auch in der Technik beim Maschinen Sehen. Hier wird ebenfalls auf Farbinformation verzichtet, was zum einen eine Datenreduktion mit sich bringt und zum anderen dazu führt, dass korrespondierende Bildpunkte leichter gefunden werden können. Diese werden benötigt, um Bewegungsvektoren zu bestimmen und letztlich Bewegung zu detektieren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The dissertation presented here deals with high-precision Penning trap mass spectrometry on short-lived radionuclides. Owed to the ability of revealing all nucleonic interactions, mass measurements far off the line of ß-stability are expected to bring new insight to the current knowledge of nuclear properties and serve to test the predictive power of mass models and formulas. In nuclear astrophysics, atomic masses are fundamental parameters for the understanding of the synthesis of nuclei in the stellar environments. This thesis presents ten mass values of radionuclides around A = 90 interspersed in the predicted rp-process pathway. Six of them have been experimentally determined for the first time. The measurements have been carried out at the Penning-trap mass spectrometer SHIPTRAP using the destructive time-of-fligh ion-cyclotron-resonance (TOF-ICR) detection technique. Given the limited performance of the TOF-ICR detection when trying to investigate heavy/superheavy species with small production cross sections (σ< 1 μb), a new detection system is found to be necessary. Thus, the second part of this thesis deals with the commissioning of a cryogenic double-Penning trap system for the application of a highly-sensitive, narrow-band Fourier-transform ion-cyclotron-resonance (FT-ICR) detection technique. With the non-destructive FT-ICR detection method a single singly-charged trapped ion will provide the required information to determine its mass. First off-line tests of a new detector system based on a channeltron with an attached conversion dynode, of a cryogenic pumping barrier, to guarantee ultra-high vacuum conditions during mass determination, and of the detection electronics for the required single-ion sensitivity are reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis describes the ultra-precise determination of the g-factor of the electron bound to hydrogenlike 28Si13+. The experiment is based on the simultaneous determination of the cyclotron- and Larmor frequency of a single ion, which is stored in a triple Penning-trap setup. The continuous Stern-Gerlach effect is used to couple the spin of the bound electron to the motional frequencies of the ion via a magnetic bottle, which allows the non-destructive determination of the spin state. To this end, a highly sensitive, cryogenic detection system was developed, which allowed the direct, non-destructive detection of the eigenfrequencies with the required precision.rnThe development of a novel, phase sensitive detection technique finally allowed the determination of the g-factor with a relative accuracy of 40 ppt, which was previously inconceivable. The comparison of the hereby determined value with the value predicted by quantumelectrodynamics (QED) allows the verification of the validity of this fundamental theory under the extreme conditions of the strong binding potential of a highly charged ion. The exact agreement of theory and experiment is an impressive demonstration of the exactness of QED. The experimental possibilities created in this work will allow in the near future not only further tests of theory, but also the determination of the mass of the electron with a precision that exceeds the current literature value by more than an order of magnitude.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Invarianz physikalischer Gesetze unter Lorentztransformationen ist eines der fundamentalen Postulate der modernen Physik und alle Theorien der grundlegenden Wechselwirkungen sind in kovarianter Form formuliert. Obwohl die Spezielle Relativitätstheorie (SRT) in einer Vielzahl von Experimenten mit hoher Genauigkeit überprüft und bestätigt wurde, sind aufgrund der weitreichenden Bedeutung dieses Postulats weitere verbesserte Tests von grundsätzlichem Interesse. Darüber hinaus weisen moderne Ansätze zur Vereinheitlichung der Gravitation mit den anderen Wechselwirkungen auf eine mögliche Verletzung der Lorentzinvarianz hin. In diesem Zusammenhang spielen Ives-Stilwell Experimente zum Test der Zeitdilatation in der SRT eine bedeutende Rolle. Dabei wird die hochauflösende Laserspektroskopie eingesetzt, um die Gültigkeit der relativistischen Dopplerformel – und damit des Zeitdilatationsfaktors γ – an relativistischen Teilchenstrahlen zu untersuchen. Im Rahmen dieser Arbeit wurde ein Ives-Stilwell Experiment an 7Li+-Ionen, die bei einer Geschwindigkeit von 34 % der Lichtgeschwindigkeit im Experimentierspeicherring (ESR) des GSI Helmholtzzentrums für Schwerionenforschung gespeichert waren, durchgeführt. Unter Verwendung des 1s2s3S1→ 1s2p3P2-Übergangs wurde sowohl Λ-Spektroskopie als auch Sättigungsspektroskopie betrieben. Durch die computergestützte Analyse des Fluoreszenznachweises und unter Verwendung optimierter Kantenfilter für den Nachweis konnte das Signal zu Rauschverhältnis entscheidend verbessert und unter Einsatz eines zusätzlichen Pumplasers erstmals ein Sättigungssignal beobachtet werden. Die Frequenzstabilität der beiden verwendeten Lasersysteme wurde mit Hilfe eines Frequenzkamms spezifiziert, um eine möglichst hohe Genauigkeit zu erreichen. Die aus den Strahlzeiten gewonnen Daten wurden im Rahmen der Robertson-Mansouri-Sexl-Testtheorie (RMS) und der Standard Model Extension (SME) interpretiert und entsprechende Obergrenzen für die relevanten Testparameter der jeweiligen Theorie bestimmt. Die Obergrenze für den Testparameter α der RMS-Theorie konnte gegenüber den früheren Messungen bei 6,4 % der Lichtgeschwindigkeit am Testspeicherring (TSR) des Max-Planck-Instituts für Kernphysik in Heidelberg um einen Faktor 4 verbessert werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Many of developing countries are facing crisis in water management due to increasing of population, water scarcity, water contaminations and effects of world economic crisis. Water distribution systems in developing countries are facing many challenges of efficient repair and rehabilitation since the information of water network is very limited, which makes the rehabilitation assessment plans very difficult. Sufficient information with high technology in developed countries makes the assessment for rehabilitation easy. Developing countries have many difficulties to assess the water network causing system failure, deterioration of mains and bad water quality in the network due to pipe corrosion and deterioration. The limited information brought into focus the urgent need to develop economical assessment for rehabilitation of water distribution systems adapted to water utilities. Gaza Strip is subject to a first case study, suffering from severe shortage in the water supply and environmental problems and contamination of underground water resources. This research focuses on improvement of water supply network to reduce the water losses in water network based on limited database using techniques of ArcGIS and commercial water network software (WaterCAD). A new approach for rehabilitation water pipes has been presented in Gaza city case study. Integrated rehabilitation assessment model has been developed for rehabilitation water pipes including three components; hydraulic assessment model, Physical assessment model and Structural assessment model. WaterCAD model has been developed with integrated in ArcGIS to produce the hydraulic assessment model for water network. The model have been designed based on pipe condition assessment with 100 score points as a maximum points for pipe condition. As results from this model, we can indicate that 40% of water pipeline have score points less than 50 points and about 10% of total pipes length have less than 30 score points. By using this model, the rehabilitation plans for each region in Gaza city can be achieved based on available budget and condition of pipes. The second case study is Kuala Lumpur Case from semi-developed countries, which has been used to develop an approach to improve the water network under crucial conditions using, advanced statistical and GIS techniques. Kuala Lumpur (KL) has water losses about 40% and high failure rate, which make severe problem. This case can represent cases in South Asia countries. Kuala Lumpur faced big challenges to reduce the water losses in water network during last 5 years. One of these challenges is high deterioration of asbestos cement (AC) pipes. They need to replace more than 6500 km of AC pipes, which need a huge budget to be achieved. Asbestos cement is subject to deterioration due to various chemical processes that either leach out the cement material or penetrate the concrete to form products that weaken the cement matrix. This case presents an approach for geo-statistical model for modelling pipe failures in a water distribution network. Database of Syabas Company (Kuala Lumpur water company) has been used in developing the model. The statistical models have been calibrated, verified and used to predict failures for both networks and individual pipes. The mathematical formulation developed for failure frequency in Kuala Lumpur was based on different pipeline characteristics, reflecting several factors such as pipe diameter, length, pressure and failure history. Generalized linear model have been applied to predict pipe failures based on District Meter Zone (DMZ) and individual pipe levels. Based on Kuala Lumpur case study, several outputs and implications have been achieved. Correlations between spatial and temporal intervals of pipe failures also have been done using ArcGIS software. Water Pipe Assessment Model (WPAM) has been developed using the analysis of historical pipe failure in Kuala Lumpur which prioritizing the pipe rehabilitation candidates based on ranking system. Frankfurt Water Network in Germany is the third main case study. This case makes an overview for Survival analysis and neural network methods used in water network. Rehabilitation strategies of water pipes have been developed for Frankfurt water network in cooperation with Mainova (Frankfurt Water Company). This thesis also presents a methodology of technical condition assessment of plastic pipes based on simple analysis. This thesis aims to make contribution to improve the prediction of pipe failures in water networks using Geographic Information System (GIS) and Decision Support System (DSS). The output from the technical condition assessment model can be used to estimate future budget needs for rehabilitation and to define pipes with high priority for replacement based on poor condition. rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die theoretische und experimentelle Untersuchung von wasserstoffähnlichen Systemen hat in den letzten hundert Jahren immer wieder sowohl die experimentelle als auch die theoretische Physik entscheidend vorangebracht. Formulierung und Test der Quantenelektrodynamik (QED) standen und stehen in engen Zusammenhang mit der Untersuchung wasserstoffähnlicher Systeme. Gegenwärtig sind besonders wasserstoffähnliche Systeme schwerer Ionen von Interesse, um die QED in den extrem starken Feldern in Kernnähe zu testen. Laserspektroskopische Messungen der Hyperfeinstrukturaufspaltung des Grundzustandes bieten eine hohe Genauigkeit, ihre Interpretation wird jedoch durch die Unsicherheit in der Größe der Kernstruktureffekte erschwert. Beseitigt werden können diese durch die Kombination der Aufspaltung in wasserstoff- und lithiumähnlichen Ionen des gleichen Nuklids. In den letzten zwei Jahrzehnten scheiterten mehrere dadurch motivierte Versuche, den HFS-Übergang in lithiumähnlichen 209Bi80+ zu finden. Im Rahmen dieser Arbeit wurde kollineare Laserspektroskopie bei etwa 70% der Lichtgeschwindigkeit an 209Bi82+ und 209Bi80+ -Ionen im Experimentier- Speicherring an der GSI in Darmstadt durchgeführt. Dabei wurde der Übergang im lithiumähnlichen Bismut erstmals beobachtet und dessen Übergangswellenlänge zu 1554,74(74) nm bestimmt. Ein eigens für dieses Experiment optimiertes Fluoreszenz-Nachweissystem stellte dabei die entscheidende Verbesserung gegenüber den gescheiterten Vorgängerexperimenten dar. Der Wellenlängenfehler ist dominiert von der Unsicherheit der Ionengeschwindigkeit, die für die Transformation in das Ruhesystem der Ionen entscheidend ist. Für deren Bestimmung wurden drei Ansätze verfolgt: Die Geschwindigkeit wurde aus der Elektronenkühlerspannung bestimmt, aus dem Produkt von Orbitlänge und Umlauffrequenz und aus dem relativistischen Dopplereffekt unter Annahme der Korrektheit des früher bestimmten Überganges in wasserstoffähnlichen Bismut. Die Spannungskalibration des Elektronenkühlers wurde im Rahmen dieser Arbeit erstmals kritisch evaluiert und bislang unterschätzte systematische Unsicherheiten aufgezeigt, die derzeit einen aussagekräftigen QED-Test verhindern. Umgekehrt konnte unter Verwendung der QED-Berechnungen eine Ionengeschwindigkeit berechnet werden, die ein genaueres und konsistenteres Resultat für die Übergangswellenlängen beider Ionenspezies liefert. Daraus ergibt sich eine Diskrepanz zu dem früher bestimmten Wert des Überganges in wasserstoffähnlichen Bismut, die es weiter zu untersuchen gilt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Patienten, die an Osteosarkom leiden werden derzeit mit intravenös applizierten krebstherapeutischen Mitteln nach Tumorresektion behandelt, was oftmals mit schweren Nebenwirkungen und einem verzögerten Knochenheilungsprozess einhergeht. Darüber hinaus treten vermehrt Rezidive aufgrund von verbleibenden neoplastischen Zellen an der Tumorresektionsstelle auf. Erfolgreiche Knochenregeneration und die Kontrolle von den im Gewebe verbleibenden Krebszellen stellt eine Herausforderung für das Tissue Engineering nach Knochenverlust durch Tumorentfernung dar. In dieser Hinsicht scheint der Einsatz von Hydroxyapatit als Knochenersatzmaterial in Kombination mit Cyclodextrin als Medikamententräger, vielversprechend. Chemotherapeutika können an Biomaterial gebunden und direkt am Tumorbett über einen längeren Zeitraum freigesetzt werden, um verbliebene neoplastische Zellen zu eliminieren. Lokal applizierte Chemotherapie hat diverse Vorteile, einschließlich der direkten zytotoxischen Auswirkung auf lokale Zellen, sowie die Reduzierung schwerer Nebenwirkungen. Diese Studie wurde durchgeführt, um die Funktionsfähigkeit eines solchen Arzneimittelabgabesystems zu bewerten und um Strategien im Bereich des Tissue Engineerings zu entwickeln, die den Knochenheilungsprozess und im speziellen die Vaskularisierung fördern sollen. Die Ergebnisse zeigen, dass nicht nur Krebszellen von der chemotherapeutischen Behandlung betroffen sind. Primäre Endothelzellen wie zum Beispiel HUVEC zeigten eine hohe Sensibilität Cisplatin und Doxorubicin gegenüber. Beide Medikamente lösten in HUVEC ein tumor-unterdrückendes Signal durch die Hochregulation von p53 und p21 aus. Zudem scheint Hypoxie einen krebstherapeutischen Einfluss zu haben, da die Behandlung sensitiver HUVEC mit Hypoxie die Zellen vor Zytotoxizität schützte. Der chemo-protektive Effekt schien deutlich weniger auf Krebszelllinien zu wirken. Diese Resultate könnten eine mögliche chemotherapeutische Strategie darstellen, um den Effekt eines zielgerichteten Medikamenteneinsatzes auf Krebszellen zu verbessern unter gleichzeitiger Schonung gesunder Zellen. Eine erfolgreiche Integration eines Systems, das Arzneimittel abgibt, kombiniert mit einem Biomaterial zur Stabilisierung und Regeneration, könnte gesunden Endothelzellen die Möglichkeit bieten zu proliferieren und Blutgefäße zu bilden, während verbleibende Krebszellen eliminiert werden. Da der Prozess der Knochengeweberemodellierung mit einer starken Beeinträchtigung der Lebensqualität des Patienten einhergeht, ist die Beschleunigung des postoperativen Heilungsprozesses eines der Ziele des Tissue Engineerings. Die Bildung von Blutgefäßen ist unabdingbar für eine erfolgreiche Integration eines Knochentransplantats in das Gewebe. Daher ist ein umfangreich ausgebildetes Blutgefäßsystem für einen verbesserten Heilungsprozess während der klinischen Anwendung wünschenswert. Frühere Experimente zeigen, dass sich die Anwendung von Ko-Kulturen aus humanen primären Osteoblasten (pOB) und humanen outgrowth endothelial cells (OEC) im Hinblick auf die Bildung stabiler gefäßähnlicher Strukturen in vitro, die auch effizient in das mikrovaskuläre System in vivo integriert werden konnten, als erfolgreich erweisen. Dieser Ansatz könnte genutzt werden, um prä-vaskularisierte Konstrukte herzustellen, die den Knochenheilungsprozess nach der Implantation fördern. Zusätzlich repräsentiert das Ko-Kultursystem ein exzellentes in vitro Model, um Faktoren, welche stark in den Prozess der Knochenheilung und Angiogenese eingebunden sind, zu identifizieren und zu analysieren. Es ist bekannt, dass Makrophagen eine maßgebliche Rolle in der inflammatorisch-induzierten Angiogenese spielen. In diesem Zusammenhang hebt diese Studie den positiven Einfluss THP-1 abgeleiteter Makrophagen in Ko-Kultur mit pOB und OEC hervor. Die Ergebnisse zeigten, dass die Anwendung von Makrophagen als inflammatorischer Stimulus im bereits etablierten Ko-Kultursystem zu einer pro-angiogenen Aktivierung der OEC führte, was in einer signifikant erhöhten Bildung blutgefäßähnlicher Strukturen in vitro resultierte. Außerdem zeigte die Analyse von Faktoren, die in der durch Entzündung hervorgerufenen Angiogenese eine wichtige Rolle spielen, eine deutliche Hochregulation von VEGF, inflammatorischer Zytokine und Adhäsionsmoleküle, die letztlich zu einer verstärkten Vaskularisierung beitragen. Diese Resultate werden dem Einfluss von Makrophagen zugeschrieben und könnten zukünftig im Tissue Engineering eingesetzt werden, um den Heilungsprozess zu beschleunigen und damit die klinische Situation von Patienten zu verbessern. Darüber hinaus könnte die Kombination der auf Ko-Kulturen basierenden Ansätze für das Knochen Tissue Engineering mit einem biomaterial-basierenden Arzneimittelabgabesystem zum klinischen Einsatz kommen, der die Eliminierung verbliebener Krebszellen mit der Förderung der Knochenregeneration verbindet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The translation from psychiatric core symptoms to brain functions and vice versa is a largely unresolved issue. In particular, the search for disorders of single brain regions explaining classical symptoms has not yielded the expected results. Based on the assumption that the psychopathology of psychosis is related to a functional imbalance of higher-order brain systems, the authors focused on three specific candidate brain circuitries, namely the language, and limbic and motor systems. These domains are of particular interest for understanding the disastrous communication breakdown during psychotic disorders. Core symptoms of psychosis were mapped on these domains by shaping their definitions in order to match the related brain functions. The resulting psychopathological assessment scale was tested for interrater reliability and internal consistency in a group of 168 psychotic patients. The items of the scale were reliable and a principal component analysis (PCA) was best explained by a solution resembling the three candidate systems. Based on the results, the scale was optimized as an instrument to identify patient subgroups characterized by a prevailing dysfunction of one or more of these systems. In conclusion, the scale is apt to distinguish symptom domains related to the activity of defined brain systems. PCA showed a certain degree of independence of the system-specific symptom clusters within the patient group, indicating relative subgroups of psychosis. The scale is understood as a research instrument to investigate psychoses based on a system-oriented approach. Possible immediate advantages in the clinical application of the understanding of psychoses related to system-specific symptom domains are also discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

PURPOSE : For the facilitation of minimally invasive robotically performed direct cochlea access (DCA) procedure, a surgical planning tool which enables the surgeon to define landmarks for patient-to-image registration, identify the necessary anatomical structures and define a safe DCA trajectory using patient image data (typically computed tomography (CT) or cone beam CT) is required. To this end, a dedicated end-to-end software planning system for the planning of DCA procedures that addresses current deficiencies has been developed. METHODS :    Efficient and robust anatomical segmentation is achieved through the implementation of semiautomatic algorithms; high-accuracy patient-to-image registration is achieved via an automated model-based fiducial detection algorithm and functionality for the interactive definition of a safe drilling trajectory based on case-specific drill positioning uncertainty calculations was developed. RESULTS :    The accuracy and safety of the presented software tool were validated during the conduction of eight DCA procedures performed on cadaver heads. The plan for each ear was completed in less than 20 min, and no damage to vital structures occurred during the procedures. The integrated fiducial detection functionality enabled final positioning accuracies of [Formula: see text] mm. CONCLUSIONS :    Results of this study demonstrated that the proposed software system could aid in the safe planning of a DCA tunnel within an acceptable time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The early detection of subjects with probable Alzheimer's disease (AD) is crucial for effective appliance of treatment strategies. Here we explored the ability of a multitude of linear and non-linear classification algorithms to discriminate between the electroencephalograms (EEGs) of patients with varying degree of AD and their age-matched control subjects. Absolute and relative spectral power, distribution of spectral power, and measures of spatial synchronization were calculated from recordings of resting eyes-closed continuous EEGs of 45 healthy controls, 116 patients with mild AD and 81 patients with moderate AD, recruited in two different centers (Stockholm, New York). The applied classification algorithms were: principal component linear discriminant analysis (PC LDA), partial least squares LDA (PLS LDA), principal component logistic regression (PC LR), partial least squares logistic regression (PLS LR), bagging, random forest, support vector machines (SVM) and feed-forward neural network. Based on 10-fold cross-validation runs it could be demonstrated that even tough modern computer-intensive classification algorithms such as random forests, SVM and neural networks show a slight superiority, more classical classification algorithms performed nearly equally well. Using random forests classification a considerable sensitivity of up to 85% and a specificity of 78%, respectively for the test of even only mild AD patients has been reached, whereas for the comparison of moderate AD vs. controls, using SVM and neural networks, values of 89% and 88% for sensitivity and specificity were achieved. Such a remarkable performance proves the value of these classification algorithms for clinical diagnostics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article reports about the internet based, second multicenter study (MCS II) of the spine study group (AG WS) of the German trauma association (DGU). It represents a continuation of the first study conducted between the years 1994 and 1996 (MCS I). For the purpose of one common, centralised data capture methodology, a newly developed internet-based data collection system ( http://www.memdoc.org ) of the Institute for Evaluative Research in Orthopaedic Surgery of the University of Bern was used. The aim of this first publication on the MCS II was to describe in detail the new method of data collection and the structure of the developed data base system, via internet. The goal of the study was the assessment of the current state of treatment for fresh traumatic injuries of the thoracolumbar spine in the German speaking part of Europe. For that reason, we intended to collect large number of cases and representative, valid information about the radiographic, clinical and subjective treatment outcomes. Thanks to the new study design of MCS II, not only the common surgical treatment concepts, but also the new and constantly broadening spectrum of spine surgery, i.e. vertebro-/kyphoplasty, computer assisted surgery and navigation, minimal-invasive, and endoscopic techniques, documented and evaluated. We present a first statistical overview and preliminary analysis of 18 centers from Germany and Austria that participated in MCS II. A real time data capture at source was made possible by the constant availability of the data collection system via internet access. Following the principle of an application service provider, software, questionnaires and validation routines are located on a central server, which is accessed from the periphery (hospitals) by means of standard Internet browsers. By that, costly and time consuming software installation and maintenance of local data repositories are avoided and, more importantly, cumbersome migration of data into one integrated database becomes obsolete. Finally, this set-up also replaces traditional systems wherein paper questionnaires were mailed to the central study office and entered by hand whereby incomplete or incorrect forms always represent a resource consuming problem and source of error. With the new study concept and the expanded inclusion criteria of MCS II 1, 251 case histories with admission and surgical data were collected. This remarkable number of interventions documented during 24 months represents an increase of 183% compared to the previously conducted MCS I. The concept and technical feasibility of the MEMdoc data collection system was proven, as the participants of the MCS II succeeded in collecting data ever published on the largest series of patients with spinal injuries treated within a 2 year period.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The primary goal of this project is to demonstrate the practical use of data mining algorithms to cluster a solved steady-state computational fluids simulation (CFD) flow domain into a simplified lumped-parameter network. A commercial-quality code, “cfdMine” was created using a volume-weighted k-means clustering that that can accomplish the clustering of a 20 million cell CFD domain on a single CPU in several hours or less. Additionally agglomeration and k-means Mahalanobis were added as optional post-processing steps to further enhance the separation of the clusters. The resultant nodal network is considered a reduced-order model and can be solved transiently at a very minimal computational cost. The reduced order network is then instantiated in the commercial thermal solver MuSES to perform transient conjugate heat transfer using convection predicted using a lumped network (based on steady-state CFD). When inserting the lumped nodal network into a MuSES model, the potential for developing a “localized heat transfer coefficient” is shown to be an improvement over existing techniques. Also, it was found that the use of the clustering created a new flow visualization technique. Finally, fixing clusters near equipment newly demonstrates a capability to track temperatures near specific objects (such as equipment in vehicles).