152 resultados para Methodik


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Radio Frequenzidentifikation (RFID) auf Basis pas-siver Transponder im Ultra-High-Frequenzbereich (UHF) findet in der Logistik immer häufiger Anwen-dung. Zur Ausschöpfung der Potenziale dieser AutoID-Technologie wird vorausgesetzt, dass die Identifikation der Waren und Güter zuverlässig erfolgt. Dies gestaltet sich aufgrund von Umgebungseinflüssen auf das elek-tromagnetische Lesefeld, das die passiven Transponder zur Identifikation mit Energie versorgt, oftmals sehr schwierig. Die Kenntnis der elektromagnetischen Feld-stärkeverteilung im Raum kann somit als Grundlage für die Bewertung der zuverlässigen Erfassung durch RFID-Installationen herangezogen werden. Das im Bei-trag vorgestellte Messkonzept mit Methodik zeigt eine Möglichkeit zur schnellen Erfassung der Lese-feldausprägung auf, um anhand der Ergebnisse die Kon-figuration dieser Systeme zu erleichtern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Otto-von-Guericke-Universität Magdeburg, Fakultät für Verfahrens- und Systemtechnik, Dissertation, 2016

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurde mit den Mitteln der stastischen Auswertung das Verschleißverhalten an mit Diamantkörnern besetzten Stahldrähten bestimmt. Es handelt sich dabei um Sägeträhte, die bei der Herstellung von kristallinen Siliziumwafern in der Produktion von Solarzellen eingesetzt werden. Das Ziel der Arbeit war es, eine Methodik zu entwickeln, den Verschleiß an den Diamantkörnern zu charakterisieren. Dazu wurden Sägeversuche unter industrienahen Bedingungen erfolgreich durchgeführt und ausgewertet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Bachelorarbeit gliedert sich in einen theoretischen und einen praktischen Abschnitt. Zunächst werden Studien- und Berufswahlmodelle aus theoretischer Sicht betrachtet. Dabei ist festzuhalten, dass kein Ansatz existiert, der den komplexen Studienwahlprozess vollständig abbildet und erklärt. Jedoch ergänzen sich verschiedene Modelle, sodass alle bedeutenden Einflussfaktoren berücksichtigt sind. Ebenso die Conjointanalyse wird einer theoretischen Betrachtung unterzogen. Als eine Methode der Präferenzmessung wird dieses Analyseverfahren häufig eingesetzt, um die Vorziehenswürdigkeit von Produkten zu ermitteln. Sowohl im Bereich der Neuproduktentwicklung, als auch bei der Marktsegmentierung und der Preisfindung findet die Analyse Verwendung. Sehr charakteristisch für die Methodik ist, dass die Präferenzbeurteilung ganzheitlich für das Produkt erfolgt und nicht direkt einzelne Produkteigenschaften bei der Auskunftsperson abgefragt werden. Besonders relevant für diese Arbeit ist die Choice-Based Conjointanalyse. Die Vorziehenswürdigkeit von Konzepten werden basierend auf Auswahlentscheidungen von Probanden erfasst. Die Beweggründe bei der Studienortwahl aus Sicht der Studierenden an der Hochschule Anhalt werden im praktischen Abschnitt dieser Ausarbeitung mit Hilfe der Choice-Based Conjointanalyse untersucht. Dafür wurde ein Fragebogen entwickelt. Es konnte ermittelt werden, dass sowohl der Ruf der Hochschule, als auch die Heimatnähe und die Höhe des Semesterbeitrages bedeutende Einflussfaktoren bei der Studiengangwahl darstellen. Darüber hinaus werden Motive der Studiengangwahl analysiert. Festzuhalten ist, dass sowohl intrinsische Motive, aber auch extrinsische Motive von hoher Wichtigkeit sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude propose une méthodologie aboutissant à la conception d'un système de contrôle de gestion pour la division « infrastructure routière » ou « I » de l'Office fédéral des routes (OFROU). La première partie de ce travail situe l'OFROU dans son contexte de réformes et identifie les raisons qui justifient l'implantation d'un système de contrôle de gestion à l'OFROU. La deuxième partie pose les jalons permettant d'établir un contrôle de gestion dans sa division « I ». Elle cherche d'abord à donner une définition du contrôle de gestion dans le secteur public, puis présente un état des lieux du système de gestion existant. Finalement, les systèmes de contrôle de gestion de deux autres offices GMEB, MétéoSuisse et armasuisse immobilier, sont analysés afin d'en tirer des éléments pertinents pouvant servir à la conception du contrôle de gestion à l'OFROU. La troisième propose un contrôle de gestion pour la division « I ». Le travail montre que la réalisation d'un concept de contrôle de gestion pour la division « I » n'est pas évidente. Cette dernière, qui est en train de se mettre en place, manque encore d'expérience pour identifier clairement les éléments clé à insérer dans le système. On observe un grand embarras entre le stade du savoir et celui du savoir faire concret. La méthodologie et l'analyse présentées dans ce travail pourraient contribuer à développer un savoir faire interne aboutissant rapidement à la mise sur pied d'un système de contrôle de gestion pour la division « I ». Die vorliegende Studie schlägt eine Methodik zur Erarbeitung eines Management-Kontrollsystems für die Abteilung « Strasseninfrastruktur » oder « I » des Bundesamts für Strassen (ASTRA) vor. Der erste Teil dieser Arbeit stellt das ASTRA im Spannungsfeld dieser Reformen. Ihre Konsequenzen lassen die Einführung eines Management-Kontrollsystems im ASTRA folgerichtig erscheinen. Im zweiten Teil geht es darum, Wegmarken zu setzen, die die Einführung einer Managementkontrolle in der Abteilung « I » in die richtigen Bahnen lenken. Es wird versucht, eine Begriffsbestimmung der Managementkontrolle im öffentlichen Sektor sowie eine Bestandesaufnahme der bestehenden Systeme vorzunehmen. Schliesslich werden die Management-Kontrollsysteme zweier anderer FLAG-Ämter, MeteoSchweiz und armasuisse immobilier, auf mögliche Nutzen für den Aufbau der Managementkontrolle des ASTRA analysiert. Der dritte Teil beinhaltet einen Vorschlag, wie die Management-Kontrolle für die Abteilung « I » aussehen könnte. Die Arbeit zeigt, dass die Erarbeitung eines Management-Kontrollkonzepts für die Abteilung « I » keine einfache Aufgabe ist. Es fehlt an Erfahrung, um die Schlüsselbausteine des Systems erkennen zu können. Zwischen dem Stadium des Wissens und dem des konkreten Know-hows klafft ein empfindlicher Graben. Methodik und Analyse, wie sie in der vorliegenden Arbeit beschrieben werden, könnten zum Aufbau eines internen Know-hows beitragen, das die rasche Verwirklichung eines Management-Kontrollsystems für die Abteilung « I » erlauben könnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zielsetzung: Vergleich von Drug Eluting Bead (DEB)-TACE mit konventioneller TACE bei der Behandlung von ,,intermediate stage-HCC bei Patienten mit Zirrhose. Material und Methodik: 212 Patienten (185 ♂, 27 ♀; mittleres Alter, 67 Jahre) mit Child-Pugh A oder B Leberzirrhose und großem und/oder multinodulärem, irresektablen HCC wurden randomisiert, um das Therapieansprechen nach der Behandlung mit DEB (DC Bead; Biocompatibles, UK) beladen mit Doxorubicin oder konventioneller TACE mit Doxorubicin zu vergleichen. Die Randomisierung wurde nach Child-Pugh Status (A oder B), Performance Status (ECOG 0 oder 1), bilobärer Erkrankung (ja/nein) und frühere kurative Behandlung (ja/nein) stratifiziert. Der primäre Studienendpunkt war das 6-Monats-Tumoransprechen. Eine unabhängige verblindete MRT-Studie wurde durchgeführt, um das Tumoransprechen nach den RECIST Kriterien zu beurteilen. Ergebnisse: DEB-TACE mit Doxorubicin zeigte eine höhere Rate an komplettem Tumoransprechen, objektivem Ansprechen und Tumorkontrolle im Vergleich zur konventionellen TACE (27% vs 22%; 52% vs 44%; and 63% vs 52%; P>0.05). Patienten mit Child-Pugh B Zirrhose, ECOG 1 Performance Status, bilobärer Erkrankung und Rezidiven nach kurativer Behandlung zeigte einen signifikanten Anstieg des objektiven Ansprechens (p = 0.038) im Vergleich zur Kontrollgruppe. Bei Patienten, die mit DEB-TACE behandelt wurden, konnte eine deutliche Reduktion der gravierenden Lebertoxizität erreicht werden. Die Doxorubicin-Nebenwirkungsrate war in der DEB-TACE Gruppe deutlich geringer (p = 0.0001) als in der konventionellen TACEGruppe. Schlussfolgerung: DEB-TACE mit Doxorubicin ist sicher und effektiv in der Behandlung von ,,intermediate-stage HCC und bietet einen signifikanten Vorteil bei Patienten mit fortgeschrittener Erkrankung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : The occupational health risk involved with handling nanoparticles is the probability that a worker will experience an adverse health effect: this is calculated as a function of the worker's exposure relative to the potential biological hazard of the material. Addressing the risks of nanoparticles requires therefore knowledge on occupational exposure and the release of nanoparticles into the environment as well as toxicological data. However, information on exposure is currently not systematically collected; therefore this risk assessment lacks quantitative data. This thesis aimed at, first creating the fundamental data necessary for a quantitative assessment and, second, evaluating methods to measure the occupational nanoparticle exposure. The first goal was to determine what is being used where in Swiss industries. This was followed by an evaluation of the adequacy of existing measurement methods to assess workplace nanopaiticle exposure to complex size distributions and concentration gradients. The study was conceived as a series of methodological evaluations aimed at better understanding nanoparticle measurement devices and methods. lt focused on inhalation exposure to airborne particles, as respiration is considered to be the most important entrance pathway for nanoparticles in the body in terms of risk. The targeted survey (pilot study) was conducted as a feasibility study for a later nationwide survey on the handling of nanoparticles and the applications of specific protection means in industry. The study consisted of targeted phone interviews with health and safety officers of Swiss companies that were believed to use or produce nanoparticles. This was followed by a representative survey on the level of nanoparticle usage in Switzerland. lt was designed based on the results of the pilot study. The study was conducted among a representative selection of clients of the Swiss National Accident Insurance Fund (SUVA), covering about 85% of Swiss production companies. The third part of this thesis focused on the methods to measure nanoparticles. Several pre- studies were conducted studying the limits of commonly used measurement devices in the presence of nanoparticle agglomerates, This focus was chosen, because several discussions with users and producers of the measurement devices raised questions about their accuracy measuring nanoparticle agglomerates and because, at the same time, the two survey studies revealed that such powders are frequently used in industry. The first preparatory experiment focused on the accuracy of the scanning mobility particle sizer (SMPS), which showed an improbable size distribution when measuring powders of nanoparticle agglomerates. Furthermore, the thesis includes a series of smaller experiments that took a closer look at problems encountered with other measurement devices in the presence of nanoparticle agglomerates: condensation particle counters (CPC), portable aerosol spectrometer (PAS) a device to estimate the aerodynamic diameter, as well as diffusion size classifiers. Some initial feasibility tests for the efficiency of filter based sampling and subsequent counting of carbon nanotubes (CNT) were conducted last. The pilot study provided a detailed picture of the types and amounts of nanoparticles used and the knowledge of the health and safety experts in the companies. Considerable maximal quantities (> l'000 kg/year per company) of Ag, Al-Ox, Fe-Ox, SiO2, TiO2, and ZnO (mainly first generation particles) were declared by the contacted Swiss companies, The median quantity of handled nanoparticles, however, was 100 kg/year. The representative survey was conducted by contacting by post mail a representative selection of l '626 SUVA-clients (Swiss Accident Insurance Fund). It allowed estimation of the number of companies and workers dealing with nanoparticles in Switzerland. The extrapolation from the surveyed companies to all companies of the Swiss production sector suggested that l'309 workers (95%-confidence interval l'073 to l'545) of the Swiss production sector are potentially exposed to nanoparticles in 586 companies (145 to l'027). These numbers correspond to 0.08% (0.06% to 0.09%) of all workers and to 0.6% (0.2% to 1.1%) of companies in the Swiss production sector. To measure airborne concentrations of sub micrometre-sized particles, a few well known methods exist. However, it was unclear how well the different instruments perform in the presence of the often quite large agglomerates of nanostructured materials. The evaluation of devices and methods focused on nanoparticle agglomerate powders. lt allowed the identification of the following potential sources of inaccurate measurements at workplaces with considerable high concentrations of airborne agglomerates: - A standard SMPS showed bi-modal particle size distributions when measuring large nanoparticle agglomerates. - Differences in the range of a factor of a thousand were shown between diffusion size classifiers and CPC/SMPS. - The comparison between CPC/SMPS and portable aerosol Spectrometer (PAS) was much better, but depending on the concentration, size or type of the powders measured, the differences were still of a high order of magnitude - Specific difficulties and uncertainties in the assessment of workplaces were identified: the background particles can interact with particles created by a process, which make the handling of background concentration difficult. - Electric motors produce high numbers of nanoparticles and confound the measurement of the process-related exposure. Conclusion: The surveys showed that nanoparticles applications exist in many industrial sectors in Switzerland and that some companies already use high quantities of them. The representative survey demonstrated a low prevalence of nanoparticle usage in most branches of the Swiss industry and led to the conclusion that the introduction of applications using nanoparticles (especially outside industrial chemistry) is only beginning. Even though the number of potentially exposed workers was reportedly rather small, it nevertheless underscores the need for exposure assessments. Understanding exposure and how to measure it correctly is very important because the potential health effects of nanornaterials are not yet fully understood. The evaluation showed that many devices and methods of measuring nanoparticles need to be validated for nanoparticles agglomerates before large exposure assessment studies can begin. Zusammenfassung : Das Gesundheitsrisiko von Nanopartikel am Arbeitsplatz ist die Wahrscheinlichkeit dass ein Arbeitnehmer einen möglichen Gesundheitsschaden erleidet wenn er diesem Stoff ausgesetzt ist: sie wird gewöhnlich als Produkt von Schaden mal Exposition gerechnet. Für eine gründliche Abklärung möglicher Risiken von Nanomaterialien müssen also auf der einen Seite Informationen über die Freisetzung von solchen Materialien in die Umwelt vorhanden sein und auf der anderen Seite solche über die Exposition von Arbeitnehmenden. Viele dieser Informationen werden heute noch nicht systematisch gesarnmelt und felilen daher für Risikoanalysen, Die Doktorarbeit hatte als Ziel, die Grundlagen zu schaffen für eine quantitative Schatzung der Exposition gegenüber Nanopartikel am Arbeitsplatz und die Methoden zu evaluieren die zur Messung einer solchen Exposition nötig sind. Die Studie sollte untersuchen, in welchem Ausmass Nanopartikel bereits in der Schweizer Industrie eingesetzt werden, wie viele Arbeitnehrner damit potentiel] in Kontakt komrrien ob die Messtechnologie für die nötigen Arbeitsplatzbelastungsmessungen bereits genügt, Die Studie folcussierte dabei auf Exposition gegenüber luftgetragenen Partikel, weil die Atmung als Haupteintrittspforte iïlr Partikel in den Körper angesehen wird. Die Doktorarbeit besteht baut auf drei Phasen auf eine qualitative Umfrage (Pilotstudie), eine repräsentative, schweizerische Umfrage und mehrere technische Stndien welche dem spezitischen Verständnis der Mëglichkeiten und Grenzen einzelner Messgeräte und - teclmikeri dienen. Die qualitative Telephonumfrage wurde durchgeführt als Vorstudie zu einer nationalen und repräsentativen Umfrage in der Schweizer Industrie. Sie zielte auf Informationen ab zum Vorkommen von Nanopartikeln, und den angewendeten Schutzmassnahmen. Die Studie bestand aus gezielten Telefoninterviews mit Arbeit- und Gesundheitsfachpersonen von Schweizer Unternehmen. Die Untemehmen wurden aufgrund von offentlich zugànglichen lnformationen ausgewählt die darauf hinwiesen, dass sie mit Nanopartikeln umgehen. Der zweite Teil der Dolctorarbeit war die repräsentative Studie zur Evalniernng der Verbreitnng von Nanopaitikelanwendungen in der Schweizer lndustrie. Die Studie baute auf lnformationen der Pilotstudie auf und wurde mit einer repräsentativen Selektion von Firmen der Schweizerischen Unfall Versicherungsanstalt (SUVA) durchgeüihxt. Die Mehrheit der Schweizerischen Unternehmen im lndustrieselctor wurde damit abgedeckt. Der dritte Teil der Doktorarbeit fokussierte auf die Methodik zur Messung von Nanopartikeln. Mehrere Vorstudien wurden dnrchgefîihrt, um die Grenzen von oft eingesetzten Nanopartikelmessgeräten auszuloten, wenn sie grösseren Mengen von Nanopartikel Agglomeraten ausgesetzt messen sollen. Dieser F okns wurde ans zwei Gründen gewählt: weil mehrere Dislcussionen rnit Anwendem und auch dem Produzent der Messgeràte dort eine Schwachstelle vermuten liessen, welche Zweifel an der Genauigkeit der Messgeräte aufkommen liessen und weil in den zwei Umfragestudien ein häufiges Vorkommen von solchen Nanopartikel-Agglomeraten aufgezeigt wurde. i Als erstes widmete sich eine Vorstndie der Genauigkeit des Scanning Mobility Particle Sizer (SMPS). Dieses Messgerät zeigte in Präsenz von Nanopartikel Agglorneraten unsinnige bimodale Partikelgrössenverteilung an. Eine Serie von kurzen Experimenten folgte, welche sich auf andere Messgeräte und deren Probleme beim Messen von Nanopartikel-Agglomeraten konzentrierten. Der Condensation Particle Counter (CPC), der portable aerosol spectrometer (PAS), ein Gerät zur Schàtzung des aerodynamischen Durchniessers von Teilchen, sowie der Diffusion Size Classifier wurden getestet. Einige erste Machbarkeitstests zur Ermittlnng der Effizienz von tilterbasierter Messung von luftgetragenen Carbon Nanotubes (CNT) wnrden als letztes durchgeiührt. Die Pilotstudie hat ein detailliiertes Bild der Typen und Mengen von genutzten Nanopartikel in Schweizer Unternehmen geliefert, und hat den Stand des Wissens der interviewten Gesundheitsschntz und Sicherheitsfachleute aufgezeigt. Folgende Typen von Nanopaitikeln wurden von den kontaktierten Firmen als Maximalmengen angegeben (> 1'000 kg pro Jahr / Unternehrnen): Ag, Al-Ox, Fe-Ox, SiO2, TiO2, und ZnO (hauptsächlich Nanopartikel der ersten Generation). Die Quantitäten von eingesetzten Nanopartikeln waren stark verschieden mit einem ein Median von 100 kg pro Jahr. ln der quantitativen Fragebogenstudie wurden l'626 Unternehmen brieflich kontaktiert; allesamt Klienten der Schweizerischen Unfallversicherringsanstalt (SUVA). Die Resultate der Umfrage erlaubten eine Abschätzung der Anzahl von Unternehmen und Arbeiter, welche Nanopartikel in der Schweiz anwenden. Die Hochrechnung auf den Schweizer lndnstriesektor hat folgendes Bild ergeben: ln 586 Unternehmen (95% Vertrauensintervallz 145 bis 1'027 Unternehmen) sind 1'309 Arbeiter potentiell gegenüber Nanopartikel exponiert (95%-Vl: l'073 bis l'545). Diese Zahlen stehen für 0.6% der Schweizer Unternehmen (95%-Vl: 0.2% bis 1.1%) und 0.08% der Arbeiternehmerschaft (95%-V1: 0.06% bis 0.09%). Es gibt einige gut etablierte Technologien um die Luftkonzentration von Submikrometerpartikel zu messen. Es besteht jedoch Zweifel daran, inwiefern sich diese Technologien auch für die Messurrg von künstlich hergestellten Nanopartikeln verwenden lassen. Aus diesem Grund folcussierten die vorbereitenden Studien für die Arbeitsplatzbeurteilnngen auf die Messung von Pulverri, welche Nan0partike1-Agg10merate enthalten. Sie erlaubten die ldentifikation folgender rnöglicher Quellen von fehlerhaften Messungen an Arbeitsplätzen mit erhöhter Luft-K0nzentrati0n von Nanopartikel Agglomeratenz - Ein Standard SMPS zeigte eine unglaubwürdige bimodale Partikelgrössenverteilung wenn er grössere Nan0par'til<e1Agg10merate gemessen hat. - Grosse Unterschiede im Bereich von Faktor tausend wurden festgestellt zwischen einem Diffusion Size Classiîier und einigen CPC (beziehungsweise dem SMPS). - Die Unterschiede zwischen CPC/SMPS und dem PAS waren geringer, aber abhängig von Grosse oder Typ des gemessenen Pulvers waren sie dennoch in der Grössenordnung von einer guten Grössenordnung. - Spezifische Schwierigkeiten und Unsicherheiten im Bereich von Arbeitsplatzmessungen wurden identitiziert: Hintergrundpartikel können mit Partikeln interagieren die während einem Arbeitsprozess freigesetzt werden. Solche Interaktionen erschweren eine korrekte Einbettung der Hintergrunds-Partikel-Konzentration in die Messdaten. - Elektromotoren produzieren grosse Mengen von Nanopartikeln und können so die Messung der prozessbezogenen Exposition stören. Fazit: Die Umfragen zeigten, dass Nanopartikel bereits Realitàt sind in der Schweizer Industrie und dass einige Unternehmen bereits grosse Mengen davon einsetzen. Die repräsentative Umfrage hat diese explosive Nachricht jedoch etwas moderiert, indem sie aufgezeigt hat, dass die Zahl der Unternehmen in der gesamtschweizerischen Industrie relativ gering ist. In den meisten Branchen (vor allem ausserhalb der Chemischen Industrie) wurden wenig oder keine Anwendungen gefunden, was schliessen last, dass die Einführung dieser neuen Technologie erst am Anfang einer Entwicklung steht. Auch wenn die Zahl der potentiell exponierten Arbeiter immer noch relativ gering ist, so unterstreicht die Studie dennoch die Notwendigkeit von Expositionsmessungen an diesen Arbeitsplätzen. Kenntnisse um die Exposition und das Wissen, wie solche Exposition korrekt zu messen, sind sehr wichtig, vor allem weil die möglichen Auswirkungen auf die Gesundheit noch nicht völlig verstanden sind. Die Evaluation einiger Geräte und Methoden zeigte jedoch, dass hier noch Nachholbedarf herrscht. Bevor grössere Mess-Studien durgefîihrt werden können, müssen die Geräte und Methodem für den Einsatz mit Nanopartikel-Agglomeraten validiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Allgemeine Schlussforschungen und Empfehlungen. 2. Einleitung. 3. Methodik. 4. Ergebnisse. 4.1. Zentrale Datenquellen : Kontinuierliche und periodische Erhabungen, Mortalitätsstatistik, Spitalstatistik, Vereinigung Schweizerischer Krebsregister, Schweizerische Gesundheitsbefragung, Trendstudie zum Konsum von Alkohol, Tabak, Medikamenten und illegalen Drogen SFA, SChülerbefragung SFA, Warenkorb BFS, Schweizer Haushalt-Panel, Traditioneller Haushaltspanel IHA-GfM, Pharmaabsatzzahlen IHA-GfM, Sonnenexposition und Sonnenschutz, Indikatoren für den Tabakkonsum in der Schweiz, Statistische Erhebungen und Schätzungen über Landwirtschaft und Ernährung, Participants' Report SIAK, Trial guide SAKK, Guidelines, Berufskrankheiten SUVA, Krebstelefon SKL. 4.2. Weitere Datenquellen : Kontinuierliche und periodische Erhebungen, Statistik der verteilten Broschüren SKL, Jahresbericht von im Bereich Krebs tätigen Institutionen, Invalidenversicherung BSV, Andere Statistiken des BSV, Konkordat der Schweizerischen Krankenversicherer, Nestlé-Studie. 4.3. Zentrale Einzelerhebungen : Frauen und Krebs, Vorstudie für eine nationale Kampagne zur Früherfassung des kolorektalen Karzinoms, Ausmass und Intensität von Krebsschmerzen in der Schweiz. 4.4. Weitere Einzelerhebungen : IUMSP : die Gesundheit Jugendlicher in der Schweiz, Stillhäufigkeit und Stilldauer in der Schweiz 1994, Kohortenstudie Alkohol- und Drogenkonsum SFA. 4.5. Abgeschlossene Erhebungen : Krebsvorsorge, MONICA-Studie und Basler Ernährungsstudie. 5. Schlussfolgerungen und Empfehlungen : Zusammenfassende Schlussfolgerungen und Empfehlungen. 6. Anhang. 6.1. Zentrale Datenquellen im Uberblick : Globalkonzept, Brustkrebsprogramm, Lungenkrebsprogramm, Hautkrebsprogramm, Darmkrebsprogramm. 6.2. Zieltabelle : formulierte Ziele des nationalen Krebsbekämpfungsprogramms. 6.3. Abkürzungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empirisches Denken und damit Kenntnisse in erfahrungswissenschaftlicher Forschungsmethodik sind im Wesentlichen für drei Bereiche der Pädagogik bedeutsam: (1) beim Betreiben von erziehungswissenschaftlicher Forschung und beim kritischen Rezipieren von Forschungsbefunden durch pädagogische Praktiker, die ihr professionelles Handeln weitestgehend auf gesichertes Wissen gründen wollen, (2) bei der praktischen Erziehungs- und Unterrichtstätigkeit zur Vermeidung von voreiligen Schlüssen aus Praxiserfahrungen für Handlungsentscheidungen und (3) als Diskussionsgrundlage für die Erarbeitung eines methodologie-übergreifend anerkennbaren Kriterienkatalogs für Wissenschaftlichkeit. Diese drei Annahmen zur Bedeutsamkeit der Kenntnis empirischer Methodik werden im Einzelnen begründet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Arbeit wird ein Ansatz für die destabilisierende Wirkung von adaptiven Hedge-Fonds Aktivitäten diskutiert und mit einer konkreten Implementation für den USD-JPY Carry Trade illustriert. Die sich dabei entwickelnde Marktdynamik wird systemtheoretisch durch den Prozess einer kollektiven Selbstorganisation erklärt. Die Neuerung des vorgestellten Ansatzes liegt darin, dass durch die Kombination von Fallstudien-/Simulations- und systemtheoretischer Methodik ein besserer Zugang zur Erklärung der Entstehung exzessiver Preisentwicklungen in Währungsmärkten gefunden werden konnte, als bisher mit traditionellen Ansätzen möglich war. In der Dissertation wird gezeigt, dass Hedge-Fonds nicht die alleinige Schuld für das Entstehen von Finanzmarktinstabilitäten trifft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich primär mit der Trauerbewältigung von unmittelbaren Angehörigen und Betroffenen nach dem Amoklauf im Erfurter Gutenberg-Gymnasium vom 26. April 2002. Zur Forschungsmethodik wurde als Erhebungsverfahren eine spezielle Technik der qualitativen Inhaltsanalyse nach Philipp Mayring gewählt. Das Anliegen dabei ist, eine Methodik systematischer Interpretation zu verwenden, die an den in jeder Inhaltsanalyse notwendig enthaltenen qualitativen Bestandteilen ansetzt, sie durch Analyseschritte und Analyseregeln systematisiert und überprüfbar macht. Anhand dieser Forschungsmethode werden die Bewältigungsmechanismen der Trauer von Angehörigen und Betroffenen untersucht. Ferner befasst sich die Arbeit mit bis dato vorliegenden Untersuchungen und Hypothesen zum Amoklauf selbst und erstellt hypothetische Überlegungen zum Täterprofil, sowie eine Literaturrecherche zur Ätiologie und Epidemiologie von Amok.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.