904 resultados para Dependency parsing
Resumo:
Die Verbindung von elektrisch aktiven, lebenden Zellen zu extrazellulären Sensorsystemen eröffnet vielfälige Möglichkeiten im Bereich der Biosensorik. Die vorliegende Arbeit leistet einen Beitrag zum tieferen Verständnis der elektrischen Kopplungsmechanismen zwischen den biologischen und elektronischen Teilen solcher Hybridsysteme. Es wurden dazu drei Hauptbereiche bearbeitet:Ein System zur extrazellulären Signalableitung an lebenden Zellen bestehend aus einem Sensorchip, einem Vorverstärkerkopf und einem Hauptverstärker wurde weiterentwickelt.Als Sensoren wurden entweder Metallmikroelektroden-Chips mit 64 Kanälen oder Feldeffekt Transistoren-Chips mit 16 Kanälen (FET) eingesetzt. Es wurden zusätzlich spezielle FET Sensoren mit Rückseitenkontakten hergestellt und eingesetzt.Die elektrische Kopplung von einzelnen Nervenzellen der neuronalen Zell-Linien SH-SY5Y und TR14 oder primär kultivierten Neuronen aus dem Hirnstamm oder dem Hippocampus von embryonalen Ratten mit den extrazellulären Sensoren wurde untersucht. In der 'whole-cell' Patch-Clamp Technik wurden die Beiträge der spannungsgesteuerten Na+- und K+-Ionenkanäle zur extrazellulären Signalform identifiziert. Die Simulation der Signale mit einem Ersatzschaltkreis (Punkt-Kontakt Modell), der in PSPICE implementiert wurde, deutet auf eine starke Abhängigkeit der Signalformen in bezug auf Konzentrationsänderungen von Na+- und K+-Ionen im Volumenbereich zwischen Zelle und den ionensensitiven Transistoren hin. Ein empirisch erweitertes Punkt-Kontakt Modell wurde daraufhin vorgestellt.Im dritten Teil der Arbeit wurden Zellschichten von Kardiomyocyten embryonaler Ratten auf den extrazellulären Sensoren kultiviert. Die Eignung eines solchen Hybridsensors als Modellherz fuer das pharmazeutische Screeing wurde durch Messungen mit Herzstimulanzien und -relaktanzien bestätigt.
Resumo:
Ontology design and population -core aspects of semantic technologies- re- cently have become fields of great interest due to the increasing need of domain-specific knowledge bases that can boost the use of Semantic Web. For building such knowledge resources, the state of the art tools for ontology design require a lot of human work. Producing meaningful schemas and populating them with domain-specific data is in fact a very difficult and time-consuming task. Even more if the task consists in modelling knowledge at a web scale. The primary aim of this work is to investigate a novel and flexible method- ology for automatically learning ontology from textual data, lightening the human workload required for conceptualizing domain-specific knowledge and populating an extracted schema with real data, speeding up the whole ontology production process. Here computational linguistics plays a fundamental role, from automati- cally identifying facts from natural language and extracting frame of relations among recognized entities, to producing linked data with which extending existing knowledge bases or creating new ones. In the state of the art, automatic ontology learning systems are mainly based on plain-pipelined linguistics classifiers performing tasks such as Named Entity recognition, Entity resolution, Taxonomy and Relation extraction [11]. These approaches present some weaknesses, specially in capturing struc- tures through which the meaning of complex concepts is expressed [24]. Humans, in fact, tend to organize knowledge in well-defined patterns, which include participant entities and meaningful relations linking entities with each other. In literature, these structures have been called Semantic Frames by Fill- 6 Introduction more [20], or more recently as Knowledge Patterns [23]. Some NLP studies has recently shown the possibility of performing more accurate deep parsing with the ability of logically understanding the structure of discourse [7]. In this work, some of these technologies have been investigated and em- ployed to produce accurate ontology schemas. The long-term goal is to collect large amounts of semantically structured information from the web of crowds, through an automated process, in order to identify and investigate the cognitive patterns used by human to organize their knowledge.
Resumo:
Die Resonanzionisations-Massenspektrometrie (RIMS) ist sowohl für spektroskopische Untersuchungen seltener Isotope als auch für den Ultraspurennachweis langlebiger radioaktiver Elemente einsetzbar. Durch die mehrstufige resonante Anregung atomarer Energieniveaus mit anschließender Ionisation mit Laserlicht wird eine sehr hohe Elementselektivität und Ionisationseffizienz erreicht. Der nachfolgende massenselektive Ionennachweis liefert eine gute Isotopenselektivität zusammen mit einer effektiven Untergrundunterdrückung. Ein wichtiger Bestandteil der RIMS-Apparatur ist ein zuverlässig arbeitendes, leistungsstarkes Lasersystem für die Resonanzionisation. Im Rahmen dieser Arbeit wurde ein von einem hochrepetierenden Nd:YAG-Laser gepumptes, aus drei Titan-Saphir-Lasern bestehendes System fertig aufgebaut und in den Routinebetrieb überführt. Die Titan-Saphir-Laser liefern im Durchstimmbereich von 730 - 880 nm eine mittlere Leistung von bis zu 3 W pro Laser bei einer Linienbreite von 2 - 3 GHz. Sie lassen sich computergesteuert in ihren Wellenlängen durchstimmen. Die mittels Resonanzionisation erzeugten Ionen werden dann in einem Flugzeit-Massenspektrometer entsprechend ihrer Masse aufgetrennt und mit einem Kanalplattendetektor nachgewiesen.Als Voraussetzung für die isotopenselektive Ultraspurenanalyse von Plutonium wurden mit diesem Lasersystem die Isotopieverschiebungen eines effizienten, dreistufigen Anregungsschema für Plutonium bestimmt. Die Laserleistungen reichen zur vielfachen Sättigung der ersten beiden Anregungsschritte und zur zweifachen Sättigung des dritten Anregungsschritts aus.Außerdem wurden die Ionisationsenergien von Pu-239 und Pu-244 zur Untersuchung ihrer Isotopenabhängigkeit bestimmt. Die beiden Ionisationsenergien sind im Rahmen der erreichten Genauigkeit bei einem Meßwert von IP239-IP244 = 0,24(82) cm^-1 gleich.Die Nachweiseffizienz der RIMS-Apparatur für Plutonium wurde in Effizienzmessungen zu 10^-5 bestimmt. Durch die gute Untergrundunterdrückung ergab sich daraus eine Nachweisgrenze von 10^6 Atomen bei der Messung eines Plutoniumisotops. Die Bestimmung der Isotopenverhältnisse von Proben mit einer zertifizierten Isotopenzusammensetzung lieferte eine gute Übereinstimmung der Meßwerte mit den angegebenen Zusammensetzungen.Die RIMS-Apparatur wurde zur Bestimmung des Gehalts und der Isotopenzusammensetzung von Plutonium in Meerwasser- und Staubproben eingesetzt.Auf Grund der Isotopenzusammensetzung konnte gezeigt werden, daß das Plutonium bei den meisten Proben aus dem Fallout von oberirdischen Kernwaffentests stammte. Des weiteren wurde Plutonium in Urinproben bestimmt. Die Nachweisgrenzen lagen bei diesen Umweltproben bei 10^6 bis 10^7 Atomen Plutonium und damit um zwei Größenordnungen niedriger als die Nachweisgrenze für Pu-239 bei der alpha-Spektroskopie, der Standardmethode für den Plutoniumnachweis.
Resumo:
Heat treatment of steels is a process of fundamental importance in tailoring the properties of a material to the desired application; developing a model able to describe such process would allow to predict the microstructure obtained from the treatment and the consequent mechanical properties of the material. A steel, during a heat treatment, can undergo two different kinds of phase transitions [p.t.]: diffusive (second order p.t.) and displacive (first order p.t.); in this thesis, an attempt to describe both in a thermodynamically consistent framework is made; a phase field, diffuse interface model accounting for the coupling between thermal, chemical and mechanical effects is developed, and a way to overcome the difficulties arising from the treatment of the non-local effects (gradient terms) is proposed. The governing equations are the balance of linear momentum equation, the Cahn-Hilliard equation and the balance of internal energy equation. The model is completed with a suitable description of the free energy, from which constitutive relations are drawn. The equations are then cast in a variational form and different numerical techniques are used to deal with the principal features of the model: time-dependency, non-linearity and presence of high order spatial derivatives. Simulations are performed using DOLFIN, a C++ library for the automated solution of partial differential equations by means of the finite element method; results are shown for different test-cases. The analysis is reduced to a two dimensional setting, which is simpler than a three dimensional one, but still meaningful.