687 resultados para Segmented Polyurethanes
Resumo:
OBJECTIVE: To propose an automatic brain tumor segmentation system. METHODS: The system used texture characteristics as its main source of information for segmentation. RESULTS: The mean correct match was 94% of correspondence between the segmented areas and ground truth. CONCLUSION: Final results showed that the proposed system was able to find and delimit tumor areas without requiring any user interaction.
Resumo:
This paper describes a logic-based formalism for qualitative spatial reasoning with cast shadows (Perceptual Qualitative Relations on Shadows, or PQRS) and presents results of a mobile robot qualitative self-localisation experiment using this formalism. Shadow detection was accomplished by mapping the images from the robot’s monocular colour camera into a HSV colour space and then thresholding on the V dimension. We present results of selflocalisation using two methods for obtaining the threshold automatically: in one method the images are segmented according to their grey-scale histograms, in the other, the threshold is set according to a prediction about the robot’s location, based upon a qualitative spatial reasoning theory about shadows. This theory-driven threshold search and the qualitative self-localisation procedure are the main contributions of the present research. To the best of our knowledge this is the first work that uses qualitative spatial representations both to perform robot self-localisation and to calibrate a robot’s interpretation of its perceptual input.
Resumo:
This thesis is a collection of five independent but closely related studies. The overall purpose is to approach the analysis of learning outcomes from a perspective that combines three major elements, namely lifelonglifewide learning, human capital, and the benefits of learning. The approach is based on an interdisciplinary perspective of the human capital paradigm. It considers the multiple learning contexts that are responsible for the development of embodied potential – including formal, nonformal and informal learning – and the multiple outcomes – including knowledge, skills, economic, social and others– that result from learning. The studies also seek to examine the extent and relative influence of learning in different contexts on the formation of embodied potential and how in turn that affects economic and social well being. The first study combines the three major elements, lifelonglifewide learning, human capital, and the benefits of learning into one common conceptual framework. This study forms a common basis for the four empirical studies that follow. All four empirical studies use data from the International Adult Literacy Survey (IALS) to investigate the relationships among the major elements of the conceptual framework presented in the first study. Study I. A conceptual framework for the analysis of learning outcomes This study brings together some key concepts and theories that are relevant for the analysis of learning outcomes. Many of the concepts and theories have emerged from varied disciplines including economics, educational psychology, cognitive science and sociology, to name only a few. Accordingly, some of the research questions inherent in the framework relate to different disciplinary perspectives. The primary purpose is to create a common basis for formulating and testing hypotheses as well as to interpret the findings in the empirical studies that follow. In particular, the framework facilitates the process of theorizing and hypothesizing on the relationships and processes concerning lifelong learning as well as their antecedents and consequences. Study II. Determinants of literacy proficiency: A lifelong-lifewide learning perspective This study investigates lifelong and lifewide processes of skill formation. In particular, it seeks to estimate the substitutability and complementarity effects of learning in multiple settings over the lifespan on literacy skill formation. This is done by investigating the predictive capacity of major determinants of literacy proficiency that are associated with a variety of learning contexts including school, home, work, community and leisure. An identical structural model based on previous research is fitted to the IALS data for 18 countries. The results show that even after accounting for all factors, education remains the most important predictor of literacy proficiency. In all countries, however, the total effect of education is significantly mediated through further learning occurring at work, at home and in the community. Therefore, the job and other literacy related factors complement education in predicting literacy proficiency. This result points to a virtual cycle of lifelong learning, particularly to how educational attainment influences other learning behaviours throughout life. In addition, results show that home background as measured by parents’ education is also a strong predictor of literacy proficiency, but in many countries this occurs only if a favourable home background is complemented with some post-secondary education. Study III. The effect of literacy proficiency on earnings: An aggregated occupational approach using the Canadian IALS data This study uses data from the Canadian Adult Literacy Survey to estimate the earnings return to literacy skills. The approach adapts a labour segmented view of the labour market by aggregating occupations into seven types, enabling the estimation of the variable impact of literacy proficiency on earnings, both within and between different types of occupations. This is done using Hierarchical Linear Modeling (HLM). The method used to construct the aggregated occupational classification is based on analysis that considers the role of cognitive and other skills in relation to the nature of occupational tasks. Substantial premiums are found to be associated with some occupational types even after adjusting for within occupational differences in individual characteristics such as schooling, literacy proficiency, labour force experience and gender. Average years of schooling and average levels of literacy proficiency at the between level account for over two-thirds of the premiums. Within occupations, there are significant returns to schooling but they vary depending on the type of occupations. In contrast, the within occupational return of literacy proficiency is not necessarily significant. The latter depends on the type of occupation. Study IV: Determinants of economic and social outcomes from a lifewide learning perspective in Canada In this study the relationship between learning in different contexts, which span the lifewide learning dimension, and individual earnings on the one hand and community participation on the other are examined in separate but comparable models. Data from the Canadian Adult Literacy Survey are used to estimate structural models, which correspond closely to the common conceptual framework outlined in Study I. The findings suggest that the relationship between formal education and economic and social outcomes is complex with confounding effects. The results indicate that learning occurring in different contexts and for different reasons leads to different kinds of benefits. The latter finding suggests a potential trade-off between realizing economic and social benefits through learning that are taken for either job-related or personal-interest related reasons. Study V: The effects of learning on economic and social well being: A comparative analysis Using the same structural model as in Study IV, hypotheses are comparatively examined using the International Adult Literacy Survey data for Canada, Denmark, the Netherlands, Norway, the United Kingdom, and the United States. The main finding from Study IV is confirmed for an additional five countries, namely that the effect of initial schooling on well being is more complex than a direct one and it is significantly mediated by subsequent learning. Additionally, findings suggest that people who devote more time to learning for job-related reasons than learning for personal-interest related reasons experience higher levels of economic well being. Moreover, devoting too much time to learning for personal-interest related reasons has a negative effect on earnings except in Denmark. But the more time people devote to learning for personal-interest related reasons tends to contribute to higher levels of social well being. These results again suggest a trade-off in learning for different reasons and in different contexts.
Resumo:
This thesis proposes a new document model, according to which any document can be segmented in some independent components and transformed in a pattern-based projection, that only uses a very small set of objects and composition rules. The point is that such a normalized document expresses the same fundamental information of the original one, in a simple, clear and unambiguous way. The central part of my work consists of discussing that model, investigating how a digital document can be segmented, and how a segmented version can be used to implement advanced tools of conversion. I present seven patterns which are versatile enough to capture the most relevant documents’ structures, and whose minimality and rigour make that implementation possible. The abstract model is then instantiated into an actual markup language, called IML. IML is a general and extensible language, which basically adopts an XHTML syntax, able to capture a posteriori the only content of a digital document. It is compared with other languages and proposals, in order to clarify its role and objectives. Finally, I present some systems built upon these ideas. These applications are evaluated in terms of users’ advantages, workflow improvements and impact over the overall quality of the output. In particular, they cover heterogeneous content management processes: from web editing to collaboration (IsaWiki and WikiFactory), from e-learning (IsaLearning) to professional printing (IsaPress).
Resumo:
Research for new biocompatible and easily implantable materials continuously proposes new molecules and new substances with biological, chemical and physical characteristics, that are more and more adapted to aesthetic and reconstructive surgery and to the development of biomedical devices such as cardiovascular prostheses. Two classes of polymeric biomaterials seem to meet better these requirements: “hydrogels” , which includes polyalkylimide (PAI) and polyvinylalcohol (PVA) and “elastomers”, which includes polyurethanes (PUs). The first ones in the last decade have had a great application for soft tissue augmentation, due to their similarity to this tissue for their high water content, elasticity and oxygen permeability (Dini et al., 2005). The second ones, on the contrary, are widely used in cardiovascular applications (catheters, vascular grafts, ventricular assist devices, total artificial hearts) due to their good mechanical properties and hemocompatibility (Zdrahala R.J. and Zdrahala I.J., 1999). In the biocompatibility evaluation of these synthetic polymers, that is important for its potential use in clinical applications, a fundamental aspect is the knowledge of the polymers cytotoxicity and the effect of their interaction with cells, in particular with the cell populations involved in the inflammatory responses, i.e. monocyte/macrophages. In consideration of what above said, the aim of this study is the comprehension of the in vitro effect of PAI, PVA and PU on three cell lines that represent three different stages of macrophagic differentiation: U937 pro-monocytes, THP-1 monocytes and RAW 264.7 macrophages. Cytotoxicity was evaluated by measuring the rate of viability with MTT, Neutral Red and morphological analysis at light microscope in time-course dependent experiments. The influence of these polymers on monocyte/macrophage activation in terms of cells adhesion, monocyte differentiation in macrophages, antigens distribution, aspecific phagocytosis, fluid-phase endocitosis, pro-inflammatory cytokine (TNF-α, IL-1β, IL-6) and nitric oxide (NO) release was evaluated. In conclusion, our studies have indicated that the three different polymeric biomaterials are highly biocompatible, since they scarcely affected viability of U937, THP-1 and RAW 264.7 cells. Moreover, we have found that even though hydrogels and polyurethane influences monocyte/macrophage differentiation (depending on the particular type of cell and polymer), they are immunocompatible since they not induced significantly high cytokine release. For these reasons their clinical applications are strongly encouraged.
Resumo:
The OPERA experiment aims at the direct observation of ν_mu -> ν_tau oscillations in the CNGS (CERN Neutrinos to Gran Sasso) neutrino beam produced at CERN; since the ν_e contamination in the CNGS beam is low, OPERA will also be able to study the sub-dominant oscillation channel ν_mu -> ν_e. OPERA is a large scale hybrid apparatus divided in two supermodules, each equipped with electronic detectors, an iron spectrometer and a highly segmented ~0.7 kton target section made of Emulsion Cloud Chamber (ECC) units. During my research work in the Bologna Lab. I have taken part to the set-up of the automatic scanning microscopes studying and tuning the scanning system performances and efficiencies with emulsions exposed to a test beam at CERN in 2007. Once the triggered bricks were distributed to the collaboration laboratories, my work was centered on the procedure used for the localization and the reconstruction of neutrino events.
Resumo:
The ALICE experiment at the LHC has been designed to cope with the experimental conditions and observables of a Quark Gluon Plasma reaction. One of the main assets of the ALICE experiment with respect to the other LHC experiments is the particle identification. The large Time-Of-Flight (TOF) detector is the main particle identification detector of the ALICE experiment. The overall time resolution, better that 80 ps, allows the particle identification over a large momentum range (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p). The TOF makes use of the Multi-gap Resistive Plate Chamber (MRPC), a detector with high efficiency, fast response and intrinsic time resoltion better than 40 ps. The TOF detector embeds a highly-segmented trigger system that exploits the fast rise time and the relatively low noise of the MRPC strips, in order to identify several event topologies. This work aims to provide detailed description of the TOF trigger system. The results achieved in the 2009 cosmic-ray run at CERN are presented to show the performances and readiness of TOF trigger system. The proposed trigger configuration for the proton-proton and Pb-Pb beams are detailed as well with estimates of the efficiencies and purity samples.
Resumo:
Die Zellgenealogie des Polychaeten Platynereis dumerilii wurde durch Farbstoffinjektion in die Blastomeren des 2-, 4- und 8-Zellstadiums, sowie die Zellen 2d, 2d112, 4d und 4d1 untersucht. Injektionen gelangen durch Aufweichung der Vitellinhülle mittels Dithioerythritol und Trypsin. Die injizierten Keime wurden zur Trochophora bzw zum dreisegmentigen Jungwurm aufgezogen, fixiert und mit dem konfokalen Rasterlichtmikroskop dreidimensional aufgenommen. Die animal-vegetale Achse des Frühkeims entspricht der antero-posterioren Achse des Jungwurms. Die Mikromeren des ersten Quartetts sind radiär um die antero-posteriore Achse angeordnet und bilden den Kopf. Die Mikromere 2d proliferiert bilateralsymmetrisch von der dorsalen Mittellinie aus und liefert das gesamte Rumpfektoderm. Indirekt ließ sich ableiten, daß die Mikromeren 2a1 bis 2c1 schmale ektodermale Streifen zwischen Kopf und Rumpf bilden und aus 2a2 und 2c2 das ektodermale Stomodaeum hervorgeht. Die Mikromeren des dritten Quartetts sowie möglicherweise 2b2 bilden 'Ektomesoderm'. 4d proliferiert ebenfalls bilateralsymmetrisch von der dorsalen Mittellinie aus zum Rumpfmesoderm und liefert vielleicht noch kleine Beiträge zum Aufbau des Darmes. Der Mitteldarm stammt von den dotterreichen Makromeren 4A bis 4D.
Resumo:
In this study new tomographic models of Colombia were calculated. I used the seismicity recorded by the Colombian seismic network during the period 2006-2009. In this time period, the improvement of the seismic network yields more stable hypocentral results with respect to older data set and allows to compute new 3D Vp and Vp/Vs models. The final dataset consists of 10813 P- and 8614 S-arrival times associated to 1405 earthquakes. Tests with synthetic data and resolution analysis indicate that velocity models are well constrained in central, western and southwestern Colombia to a depth of 160 km; the resolution is poor in the northern Colombia and close to Venezuela due to a lack of seismic stations and seismicity. The tomographic models and the relocated seismicity indicate the existence of E-SE subducting Nazca lithosphere beneath central and southern Colombia. The North-South changes in Wadati-Benioff zone, Vp & Vp/Vs pattern and volcanism, show that the downgoing plate is segmented by slab tears E-W directed, suggesting the presence of three sectors. Earthquakes in the northernmost sector represent most of the Colombian seimicity and concentrated on 100-170 km depth interval, beneath the Eastern Cordillera. Here a massive dehydration is inferred, resulting from a delay in the eclogitization of a thickened oceanic crust in a flat-subduction geometry. In this sector a cluster of intermediate-depth seismicity (Bucaramanga Nest) is present beneath the elbow of the Eastern Cordillera, interpreted as the result of massive and highly localized dehydration phenomenon caused by a hyper-hydrous oceanic crust. The central and southern sectors, although different in Vp pattern show, conversely, a continuous, steep and more homogeneous Wadati-Benioff zone with overlying volcanic areas. Here a "normalthickened" oceanic crust is inferred, allowing for a gradual and continuous metamorphic reactions to take place with depth, enabling the fluid migration towards the mantle wedge.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
The Zero Degree Calorimeter (ZDC) of the ATLAS experiment at CERN is placed in the TAN of the LHC collider, covering the pseudorapidity region higher than 8.3. It is composed by 2 calorimeters, each one longitudinally segmented in 4 modules, located at 140 m from the IP exactly on the beam axis. The ZDC can detect neutral particles during pp collisions and it is a tool for diffractive physics. Here we present results on the forward photon energy distribution obtained using p-p collision data at sqrt{s} = 7 TeV. First the pi0 reconstruction will be used for the detector calibration with photons, then we will show results on the forward photon energy distribution in p-p collisions and the same distribution, but obtained using MC generators. Finally a comparison between data and MC will be shown.
Resumo:
Die vorliegende Dissertation zeigte die Anwendung von funktionellen Monomeren um Nanokapseln und Nanopartikeln, die mit der Miniemulsionstechnik hergestellt wurden, eine Vielzahl von Eigenschaften zu verleihen. Hierbei wurden zum einen die Vorteile der Miniemulsionstechnik genutzt, die vor allem eine sehr große Bandbreite von Methoden und Monomeren erlaubt. Zum anderen wurden durch das Design der Monomere neue Polymere mit speziellen Eigenschaften synthetisiert.rnEs wurden abbaubare Polymere synthetisiert, die für Freisetzungs- und Sensorapplikationen verwendet werden konnten. Hierzu wurde durch die Verwendung von Dioxepanen die einfache Synthese von abbaubaren Polyester- und Copolyester-Nanopartikeln ermöglicht. Es konnte weiterhin gezeigt werden, das diese Partikel einen hydrophoben Wirkstoff, Paclitaxel, in eine Zelle schleusen können und ihn dort freisetzen.rnDurch die Verwendung tertiärer Diole konnten funktionale Polyurethane hergestellt werden, die eine einzigartige Abbaubarkeit durch die Zugabe von Säuren oder durch thermische Behandlung aufwiesen. Diese bisher in der Literatur unbekannte Klasse von Polyurethanen kann als Sensormaterial und für Opferschichten verwendet werden. rnWeiterhin wurde die Strukturbildung von Hybridblockcopolymeren in Nanopartikeln und Nanokapseln untersucht. Es wurden hierzu neuartige, aminfunktionalisierte Azoinitiatoren hergestellt, die zu Polyurethan-Makroazoinitiatoren weiterreagiert wurden. rnim Folgenden wurden mittels kontrollierten radikalische Polymerisationstechniken Basis der tertiären Carbamate Polyurethan-ATRP-Makroinitiatoren hergestellt. Diese wurden sowohl in Lösung wie auch in inverser Miniemulsion dazu verwendet, Blockterpolymere herzustellen. Es wurden durch unterschiedliche Miniemulsionstechniken Nanopartikel und Nanokapseln hergestellt, die allesamt eine Mikrophasenseparation zeigten, wodurch Kern-Schale-Strukturen erhalten wurden. rnDie Huisgen-Zykloaddition von Aziden und terminalen Alkinen wurde dazu ausgenutzt, um durch die Verwendung von Dialkinen und Diaziden an der Grenzfläche von Topfen in inverser Miniemulsion eine Polymerisation durchzuführen. Es wurden sehr hohe Polymerisationsgrade bei sehr milden Temperaturen durch den Einsatz eines grenzflächenaktiven Kupferkatalysators erreicht. Die hergestellten Nanokapseln wurden Des Weiteren konnte durch die Herstellung eines neuartigen Dipropiolatesters ein System beschrieben werden, das eine Polymerisation mit Diaziden an der Grenzfläche bei Raumtemperatur eingeht. rnWeiterhin wurde die kupferkatalysierte 1,3-Dipolare Zykloaddition von terminalen Alkinen und Aziden (Clickreaktion) dazu ausgenutzt, um Nanokapseln an der Oberfläche zu funktionalisieren. Hierzu wurden Azid- und Alkin funktionalisierte Monomere verwendet, die in inverser Miniemulsion an der Grenzfläche polymerisiert wurden. Die kovalente Anbindung und der Umsatz der von Alkinfunktionen an der Oberfläche wurde mittels eines fluorogenen Click-Farbstoffes (9-Azidomethylen-Anthracen) untersucht und durch Messung der Fluoreszenzverstärkung konnte eine Aussage über die umgesetzten Alkinfunktionen getroffen werden. rnAzidfunktionen konnten mit einem neuartigen kupferfreien System adressiert werden. Hierbei wurde durch den Umsatz mit Acetylensäure eine sehr einfache Funktionalisierung der Polyurethan-Nanokapseloberfläche mit Carboxylgruppen bei Raumtemperatur ohne den Einsatz von Katalysatoren oder einer inerten Atmosphäre erreicht. Die erfolgreiche Anbindung konnte mit Partikelladungsmessungen sowie Bestimmung des Zetapotentials verifiziert werden.rn
Resumo:
In den westlichen Industrieländern ist das Mammakarzinom der häufigste bösartige Tumor der Frau. Sein weltweiter Anteil an allen Krebserkrankungen der Frau beläuft sich auf etwa 21 %. Inzwischen ist jede neunte Frau bedroht, während ihres Lebens an Brustkrebs zu erkranken. Die alterstandardisierte Mortalitätrate liegt derzeit bei knapp 27 %.rnrnDas Mammakarzinom hat eine relative geringe Wachstumsrate. Die Existenz eines diagnostischen Verfahrens, mit dem alle Mammakarzinome unter 10 mm Durchmesser erkannt und entfernt werden, würden den Tod durch Brustkrebs praktisch beseitigen. Denn die 20-Jahres-Überlebungsrate bei Erkrankung durch initiale Karzinome der Größe 5 bis 10 mm liegt mit über 95 % sehr hoch.rnrnMit der Kontrastmittel gestützten Bildgebung durch die MRT steht eine relativ junge Untersuchungsmethode zur Verfügung, die sensitiv genug zur Erkennung von Karzinomen ab einer Größe von 3 mm Durchmesser ist. Die diagnostische Methodik ist jedoch komplex, fehleranfällig, erfordert eine lange Einarbeitungszeit und somit viel Erfahrung des Radiologen.rnrnEine Computer unterstützte Diagnosesoftware kann die Qualität einer solch komplexen Diagnose erhöhen oder zumindest den Prozess beschleunigen. Das Ziel dieser Arbeit ist die Entwicklung einer vollautomatischen Diagnose Software, die als Zweitmeinungssystem eingesetzt werden kann. Meines Wissens existiert eine solche komplette Software bis heute nicht.rnrnDie Software führt eine Kette von verschiedenen Bildverarbeitungsschritten aus, die dem Vorgehen des Radiologen nachgeahmt wurden. Als Ergebnis wird eine selbstständige Diagnose für jede gefundene Läsion erstellt: Zuerst eleminiert eine 3d Bildregistrierung Bewegungsartefakte als Vorverarbeitungsschritt, um die Bildqualität der nachfolgenden Verarbeitungsschritte zu verbessern. Jedes kontrastanreichernde Objekt wird durch eine regelbasierte Segmentierung mit adaptiven Schwellwerten detektiert. Durch die Berechnung kinetischer und morphologischer Merkmale werden die Eigenschaften der Kontrastmittelaufnahme, Form-, Rand- und Textureeigenschaften für jedes Objekt beschrieben. Abschließend werden basierend auf den erhobenen Featurevektor durch zwei trainierte neuronale Netze jedes Objekt in zusätzliche Funde oder in gut- oder bösartige Läsionen klassifiziert.rnrnDie Leistungsfähigkeit der Software wurde auf Bilddaten von 101 weiblichen Patientinnen getested, die 141 histologisch gesicherte Läsionen enthielten. Die Vorhersage der Gesundheit dieser Läsionen ergab eine Sensitivität von 88 % bei einer Spezifität von 72 %. Diese Werte sind den in der Literatur bekannten Vorhersagen von Expertenradiologen ähnlich. Die Vorhersagen enthielten durchschnittlich 2,5 zusätzliche bösartige Funde pro Patientin, die sich als falsch klassifizierte Artefakte herausstellten.rn
Resumo:
Hydrophile Polyurethanpartikel wurden mittels in inversen Miniemulsionen durchgeführten Polyadditionsreaktionen hergestellt. Wie durch FT-IR-Spektroskopie gezeigt wurde, konnte durch die Abwesenheit von Wasser in dem verwendeten System die Entstehung von Harnstoffbindungen vermieden werden. Das Molekulargewicht der erhaltenen Polyurethane konnte durch verschiedene Parameter, wie zum Beispiel die Hydrophobizität der kontinuierlichen Phase oder die Zugabe von DMSO zur dispersen Phase, beeinflusst werden. Die höchsten Molekulargewichte (Mn von bis zu 19000 g•mol-1) wurden mit Isopar M als kontinuierlicher Phase erhalten. Der zweite Teil der Arbeit beschäftigt sich mit der Herstellung anisotroper Polystyrolpartikel über eine Film-Dehnungs-Methode. Polystyrol/Polyvinylalkohol-Filme wurden oberhalb der Glasübergangstemperatur von Polystyrol und Polyvinylalkohol (Matrix) uniaxial oder biaxial gedehnt, wodurch ellipsenförmige oder scheibenförmige Partikel entstanden. Es zeigte sich, dass die Redispergierbarkeit der verstreckten Partikel in Wasser stark von deren Oberflächenfunktionalisierung abhängig war. Die beste Redispergierbarkeit (46%) wurde für Sulfonat-funktionalisierte Partikel erhalten. Als eine alternative Methode zur Herstellung anisotroper Polymerpartikel wurde im letzten Teil der vorliegenden Arbeit Elektrospinnen eingesetzt. Es konnte gezeigt werden, dass es prinzipiell möglich ist, ellipsenförmige PS-Partikel zu erhalten, deren Aspektverhältnis durch die Höhe der angelegten Spannung und den Abstand zwischen Spitze und Kollektor beeinflusst wurde. Neben PS-Partikeln konnten auch PMMA-Kapseln über Elektrospinnen verstreckt werden. Mittels der Film-Dehnungs-Methode konnte jedoch eine größere Vielfalt an Aspektverhältnissen hergestellt werden. Ein weiterer Nachteil gegenüber der Film-Dehnungs-Methode ist die relativ breite Größenverteilung der verstreckten Partikel. Jedoch ist Elektrospinnen im Gegensatz zur Film-Dehnungs-Methode ein kontinuierlicher Prozess und könnte auch für die Herstellung anisotroper Partikel von Polymeren mit einer hohen Glasübergangstemperatur verwendet werden.
Resumo:
In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.