978 resultados para Cramer-Von Mises Statistics
Resumo:
Smart structures and systems have the main purpose to mimic living organisms, which are essentially characterized by an autoregulatory behavior. Therefore, this kind of structure has adaptive characteristics with stimulus-response mechanisms. The term adaptive structure has been used to identify structural systems that are capable of changing their geometry or physical properties with the purpose of performing a specific task. In this work, a sliding mode controller with fuzzy inference is applied for active vibration control in an SMA two-bar truss. In order to obtain a simpler controller, a polynomial model is used in the control law, while a more sophisticated version, which presents close agreement with experimental data, is applied to describe the SMA behavior of the structural elements. This system has a rich dynamic response and can easily reach a chaotic behavior even at moderate loads and frequencies. Therefore, this approach has the advantage of not only obtaining a simpler control law, but also allows its robustness be evidenced. Numerical simulations are carried out in order to demonstrate the control system performance.
Resumo:
Design and analysis of conceptually different cooling systems for the human heart preservation are numerically investigated. A heart cooling container with required connections was designed for a normal size human heart. A three-dimensional, high resolution human heart geometric model obtained from CT-angio data was used for simulations. Nine different cooling designs are introduced in this research. The first cooling design (Case 1) used a cooling gelatin only outside of the heart. In the second cooling design (Case 2), the internal parts of the heart were cooled via pumping a cooling liquid inside both the heart’s pulmonary and systemic circulation systems. An unsteady conjugate heat transfer analysis is performed to simulate the temperature field variations within the heart during the cooling process. Case 3 simulated the currently used cooling method in which the coolant is stagnant. Case 4 was a combination of Case 1 and Case 2. A linear thermoelasticity analysis was performed to assess the stresses applied on the heart during the cooling process. In Cases 5 through 9, the coolant solution was used for both internal and external cooling. For external circulation in Case 5 and Case 6, two inlets and two outlets were designed on the walls of the cooling container. Case 5 used laminar flows for coolant circulations inside and outside of the heart. Effects of turbulent flow on cooling of the heart were studied in Case 6. In Case 7, an additional inlet was designed on the cooling container wall to create a jet impinging the hot region of the heart’s wall. Unsteady periodic inlet velocities were applied in Case 8 and Case 9. The average temperature of the heart in Case 5 was +5.0oC after 1500 s of cooling. Multi-objective constrained optimization was performed for Case 5. Inlet velocities for two internal and one external coolant circulations were the three design variables for optimization. Minimizing the average temperature of the heart, wall shear stress and total volumetric flow rates were the three objectives. The only constraint was to keep von Mises stress below the ultimate tensile stress of the heart’s tissue.
Resumo:
Following the intrinsically linked balance sheets in his Capital Formation Life Cycle, Lukas M. Stahl explains with his Triple A Model of Accounting, Allocation and Accountability the stages of the Capital Formation process from FIAT to EXIT. Based on the theoretical foundations of legal risk laid by the International Bar Association with the help of Roger McCormick and legal scholars such as Joanna Benjamin, Matthew Whalley and Tobias Mahler, and founded on the basis of Wesley Hohfeld’s category theory of jural relations, Stahl develops his mutually exclusive Four Determinants of Legal Risk of Law, Lack of Right, Liability and Limitation. Those Four Determinants of Legal Risk allow us to apply, assess, and precisely describe the respective legal risk at all stages of the Capital Formation Life Cycle as demonstrated in case studies of nine industry verticals of the proposed and currently negotiated Transatlantic Trade and Investment Partnership between the United States of America and the European Union, TTIP, as well as in the case of the often cited financing relation between the United States and the People’s Republic of China. Having established the Four Determinants of Legal Risk and its application to the Capital Formation Life Cycle, Stahl then explores the theoretical foundations of capital formation, their historical basis in classical and neo-classical economics and its forefathers such as The Austrians around Eugen von Boehm-Bawerk, Ludwig von Mises and Friedrich von Hayek and most notably and controversial, Karl Marx, and their impact on today’s exponential expansion of capital formation. Starting off with the first pillar of his Triple A Model, Accounting, Stahl then moves on to explain the Three Factors of Capital Formation, Man, Machines and Money and shows how “value-added” is created with respect to the non-monetary capital factors of human resources and industrial production. Followed by a detailed analysis discussing the roles of the Three Actors of Monetary Capital Formation, Central Banks, Commercial Banks and Citizens Stahl readily dismisses a number of myths regarding the creation of money providing in-depth insight into the workings of monetary policy makers, their institutions and ultimate beneficiaries, the corporate and consumer citizens. In his second pillar, Allocation, Stahl continues his analysis of the balance sheets of the Capital Formation Life Cycle by discussing the role of The Five Key Accounts of Monetary Capital Formation, the Sovereign, Financial, Corporate, Private and International account of Monetary Capital Formation and the associated legal risks in the allocation of capital pursuant to his Four Determinants of Legal Risk. In his third pillar, Accountability, Stahl discusses the ever recurring Crisis-Reaction-Acceleration-Sequence-History, in short: CRASH, since the beginning of the millennium starting with the dot-com crash at the turn of the millennium, followed seven years later by the financial crisis of 2008 and the dislocations in the global economy we are facing another seven years later today in 2015 with several sordid debt restructurings under way and hundred thousands of refugees on the way caused by war and increasing inequality. Together with the regulatory reactions they have caused in the form of so-called landmark legislation such as the Sarbanes-Oxley Act of 2002, the Dodd-Frank Act of 2010, the JOBS Act of 2012 or the introduction of the Basel Accords, Basel II in 2004 and III in 2010, the European Financial Stability Facility of 2010, the European Stability Mechanism of 2012 and the European Banking Union of 2013, Stahl analyses the acceleration in size and scope of crises that appears to find often seemingly helpless bureaucratic responses, the inherent legal risks and the complete lack of accountability on part of those responsible. Stahl argues that the order of the day requires to address the root cause of the problems in the form of two fundamental design defects of our Global Economic Order, namely our monetary and judicial order. Inspired by a 1933 plan of nine University of Chicago economists abolishing the fractional reserve system, he proposes the introduction of Sovereign Money as a prerequisite to void misallocations by way of judicial order in the course of domestic and transnational insolvency proceedings including the restructuring of sovereign debt throughout the entire monetary system back to its origin without causing domino effects of banking collapses and failed financial institutions. In recognizing Austrian-American economist Schumpeter’s Concept of Creative Destruction, as a process of industrial mutation that incessantly revolutionizes the economic structure from within, incessantly destroying the old one, incessantly creating a new one, Stahl responds to Schumpeter’s economic chemotherapy with his Concept of Equitable Default mimicking an immunotherapy that strengthens the corpus economicus own immune system by providing for the judicial authority to terminate precisely those misallocations that have proven malignant causing default perusing the century old common law concept of equity that allows for the equitable reformation, rescission or restitution of contract by way of judicial order. Following a review of the proposed mechanisms of transnational dispute resolution and current court systems with transnational jurisdiction, Stahl advocates as a first step in order to complete the Capital Formation Life Cycle from FIAT, the creation of money by way of credit, to EXIT, the termination of money by way of judicial order, the institution of a Transatlantic Trade and Investment Court constituted by a panel of judges from the U.S. Court of International Trade and the European Court of Justice by following the model of the EFTA Court of the European Free Trade Association. Since the first time his proposal has been made public in June of 2014 after being discussed in academic circles since 2011, his or similar proposals have found numerous public supporters. Most notably, the former Vice President of the European Parliament, David Martin, has tabled an amendment in June 2015 in the course of the negotiations on TTIP calling for an independent judicial body and the Member of the European Commission, Cecilia Malmström, has presented her proposal of an International Investment Court on September 16, 2015. Stahl concludes, that for the first time in the history of our generation it appears that there is a real opportunity for reform of our Global Economic Order by curing the two fundamental design defects of our monetary order and judicial order with the abolition of the fractional reserve system and the introduction of Sovereign Money and the institution of a democratically elected Transatlantic Trade and Investment Court that commensurate with its jurisdiction extending to cases concerning the Transatlantic Trade and Investment Partnership may complete the Capital Formation Life Cycle resolving cases of default with the transnational judicial authority for terminal resolution of misallocations in a New Global Economic Order without the ensuing dangers of systemic collapse from FIAT to EXIT.
Finite element modeling of straightening of thin-walled seamless tubes of austenitic stainless steel
Resumo:
During this thesis work a coupled thermo-mechanical finite element model (FEM) was builtto simulate hot rolling in the blooming mill at Sandvik Materials Technology (SMT) inSandviken. The blooming mill is the first in a long line of processes that continuously or ingotcast ingots are subjected to before becoming finished products. The aim of this thesis work was twofold. The first was to create a parameterized finiteelement (FE) model of the blooming mill. The commercial FE software package MSCMarc/Mentat was used to create this model and the programing language Python was used toparameterize it. Second, two different pass schedules (A and B) were studied and comparedusing the model. The two pass series were evaluated with focus on their ability to healcentreline porosity, i.e. to close voids in the centre of the ingot. This evaluation was made by studying the hydrostatic stress (σm), the von Mises stress (σeq)and the plastic strain (εp) in the centre of the ingot. From these parameters the stress triaxiality(Tx) and the hydrostatic integration parameter (Gm) were calculated for each pass in bothseries using two different transportation times (30 and 150 s) from the furnace. The relationbetween Gm and an analytical parameter (Δ) was also studied. This parameter is the ratiobetween the mean height of the ingot and the contact length between the rolls and the ingot,which is useful as a rule of thumb to determine the homogeneity or penetration of strain for aspecific pass. The pass series designed with fewer passes (B), many with greater reduction, was shown toachieve better void closure theoretically. It was also shown that a temperature gradient, whichis the result of a longer holding time between the furnace and the blooming mill leads toimproved void closure.
Resumo:
During this thesis work a coupled thermo-mechanical finite element model (FEM) was builtto simulate hot rolling in the blooming mill at Sandvik Materials Technology (SMT) inSandviken. The blooming mill is the first in a long line of processes that continuously or ingotcast ingots are subjected to before becoming finished products. The aim of this thesis work was twofold. The first was to create a parameterized finiteelement (FE) model of the blooming mill. The commercial FE software package MSCMarc/Mentat was used to create this model and the programing language Python was used toparameterize it. Second, two different pass schedules (A and B) were studied and comparedusing the model. The two pass series were evaluated with focus on their ability to healcentreline porosity, i.e. to close voids in the centre of the ingot. This evaluation was made by studying the hydrostatic stress (σm), the von Mises stress (σeq)and the plastic strain (εp) in the centre of the ingot. From these parameters the stress triaxiality(Tx) and the hydrostatic integration parameter (Gm) were calculated for each pass in bothseries using two different transportation times (30 and 150 s) from the furnace. The relationbetween Gm and an analytical parameter (Δ) was also studied. This parameter is the ratiobetween the mean height of the ingot and the contact length between the rolls and the ingot,which is useful as a rule of thumb to determine the homogeneity or penetration of strain for aspecific pass. The pass series designed with fewer passes (B), many with greater reduction, was shown toachieve better void closure theoretically. It was also shown that a temperature gradient, whichis the result of a longer holding time between the furnace and the blooming mill leads toimproved void closure.
Resumo:
Aim: To investigate the effect of implant-abutment angulation and crown material on stress distribution of central incisors. Finite element method was used to simulate the clinical situation of a maxillary right central incisor restored by two different implant-abutment angulations, 15° and 25°, using two different crown materials (IPS E-Max CAD and zirconia). Methods: Two 3D finite element models were specially prepared for this research simulating the abutment angulations. Commercial engineering CAD/CAM package was used to model crown, implant abutment complex and bone (cortical and spongy) in 3D. Linear static analysis was performed by applying a 178 N oblique load. The obtained results were compared with former experimental results. Results: Implant Von Mises stress level was negligibly changed with increasing abutment angulation. The abutment with higher angulation is mechanically weaker and expected to fail at lower loading in comparison with the steeper one. Similarly, screw used with abutment angulation of 25° will fail at lower (about one-third) load value the failure load of similar screw used with abutment angulated by 15°. Conclusions: Bone (cortical and spongy) is insensitive to crown material. Increasing abutment angulation from 15° to 25°, increases stress on cortical bone by about 20% and reduces it by about 12% on spongy bone. Crown fracture resistance is dramatically reduced by increasing abutment angulation. Zirconia crown showed better performance than E-Max one.
Resumo:
Does a brain store thoughts and memories the way a computer saves its files? How can a single hit or a fall erase all those memories? Brain Mapping and traumatic brain injuries (TBIs) have become widely researched fields today. Many researchers have been studying TBIs caused to adult American football players however youth athletes have been rarely considered for these studies, contradicting to the fact that American football enrolls highest number of collegiate and high-school children than adults. This research is an attempt to contribute to the field of youth TBIs. Earlier studies have related head kinematics (linear and angular accelerations) to TBIs. However, fewer studies have dealt with brain kinetics (impact pressures and stresses) occurring during head-on collisions. The National Operating Committee on Standards for Athletic Equipment (NOCSAE) drop tests were conducted for linear impact accelerations and the Head Impact Contact Pressures (HICP) calculated from them were applied to a validated FE model. The results showed lateral region of the head as the most vulnerable region to damage from any drop height or impact distance followed by posterior region. The TBI tolerance levels in terms of Von-Mises and Maximum Principal Stresses deduced for lateral impact were 30 MPa and 18 MPa respectively. These levels were corresponding to 2.625 feet drop height. The drop heights beyond this value will result in TBI causing stress concentrations in human head without any detectable structural damage to the brain tissue. This data can be utilized for designing helmets that provide cushioning to brain along with providing a resistance to shear.
Resumo:
The German shrimp fisheries land different types of pro-duce. Besides cooked shrimp for human consumption small (undersized), raw shrimp (industrial shrimp) are landed regionally in the second half of each year for animal feedstuff purposes. They are dried in special plants and form sellable secession from sieving processes aboard shrimping vessels. Grading the cooked shrimp ashore gives the non-marketable fraction of too small shrimp, which is not meant for shelling. That fraction is produced all year alongside landings of shrimp and is used for feed-stuff as well. Both extra fractions are listed in the official statistics since 2000 for the first time. That year industrial shrimp made up 6 % of the total landings while the non-marketable, small cooked shrimp summed up to 7 %, respectively. Though being essential for specialised animal feeds they are commercially of very little value, making up to hardly 2 ‰ of the total turnover of the German shrimp fisheries.
Resumo:
In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.
Resumo:
In der biologischen Massenspektrometrie (MS) werden überwiegend zwei Ionisationstechniken für die Analyse von grçßeren Biomolekfürlen wie Polypeptiden eingesetzt. Dies sind die Nano-Elektrospray-Ionisation[1,2] (nanoESI) und die matrixunterstfürtzte Laserdesorption/-ionisation[3, 4] (MALDI). Beide Techniken werden als „sanft“ bezeichnet, weil sie die Desorption und Ionisation von intakten Analytmolekfürlen und damit ihre erfolgreiche massenspektrometrische Analyse erlauben. Einer der wichtigsten Unterschiede zwischen diesen beiden Ionisationstechniken liegt in ihrer F�higkeit, mehrfach geladene Ionen zu erzeugen. MALDI erzeugt typischerweise einfach geladene Peptidionen, w�hrend nano- ESI leicht mehrfach geladene Ionen produziert, sogar für Peptide mit einer Masse von weniger als 1000 Da. Die Erzeugung von hoch geladenen Ionen ist wünschenswert, da dies die Verwendung von Massenanalysatoren wie Ionenfallen (inkl. Orbitraps) und Hybrid-Quadrupolinstrumenten ermçglicht, die typischerweise nur einen begrenzten m/z- Bereich (<2000–4000) bieten. Hohe Ladungszust�nde ermçglichen auch die Aufnahme von informativeren Fragmentionenspektren, wenn Methoden wie die kollisionsinduzierte Dissoziation (CID), die Elektroneneinfang-Dissoziation (ECD) und die Elektronentransfer-Dissoziation (ETD) in Kombination mit der Tandem-MS (MS/MS) verwendet werden.
Resumo:
The Spin-Statistics theorem states that the statistics of a system of identical particles is determined by their spin: Particles of integer spin are Bosons (i.e. obey Bose-Einstein statistics), whereas particles of half-integer spin are Fermions (i.e. obey Fermi-Dirac statistics). Since the original proof by Fierz and Pauli, it has been known that the connection between Spin and Statistics follows from the general principles of relativistic Quantum Field Theory. In spite of this, there are different approaches to Spin-Statistics and it is not clear whether the theorem holds under assumptions that are different, and even less restrictive, than the usual ones (e.g. Lorentz-covariance). Additionally, in Quantum Mechanics there is a deep relation between indistinguishabilty and the geometry of the configuration space. This is clearly illustrated by Gibbs' paradox. Therefore, for many years efforts have been made in order to find a geometric proof of the connection between Spin and Statistics. Recently, various proposals have been put forward, in which an attempt is made to derive the Spin-Statistics connection from assumptions different from the ones used in the relativistic, quantum field theoretic proofs. Among these, there is the one due to Berry and Robbins (BR), based on the postulation of a certain single-valuedness condition, that has caused a renewed interest in the problem. In the present thesis, we consider the problem of indistinguishability in Quantum Mechanics from a geometric-algebraic point of view. An approach is developed to study configuration spaces Q having a finite fundamental group, that allows us to describe different geometric structures of Q in terms of spaces of functions on the universal cover of Q. In particular, it is shown that the space of complex continuous functions over the universal cover of Q admits a decomposition into C(Q)-submodules, labelled by the irreducible representations of the fundamental group of Q, that can be interpreted as the spaces of sections of certain flat vector bundles over Q. With this technique, various results pertaining to the problem of quantum indistinguishability are reproduced in a clear and systematic way. Our method is also used in order to give a global formulation of the BR construction. As a result of this analysis, it is found that the single-valuedness condition of BR is inconsistent. Additionally, a proposal aiming at establishing the Fermi-Bose alternative, within our approach, is made.
Resumo:
In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn
Resumo:
Da es bis dato kein spezifisches Instrument gibt, um die Betreuungsbedürfnisse von Patientinnen im Rahmen der gynäkologischen Krebsfrüherkennungsuntersuchung zu erfassen, war es das Ziel der vorliegenden explorativen Studie, eben jene subjektiven Betreuungsbedürfnisse aufzudecken und sie in ein praxistaugliches und messbares Format zu überführen - den Fragebogen „Betreuungsbedürfnisse – Gynäkologische Krebsfrüherkennungsuntersuchung (BB-G KFU)“. Wir stellten hierzu folgende Hypothesen auf: Es ist möglich (a) Betreuungsbedürfnisse zu explorieren und in reliablen Skalen abzubilden, (b) die Wichtigkeit der Betreuungsbedürfnisse in Form einer Wertigkeitsrangfolge abzubilden, (c) Determinanten der Betreuungsbedürfnisse (Alter, Sozialstatus, Familienstand, Gesundheitsbezogene Kontrollüberzeugungen) zu detektieren. Wir entwickelten einen Fragebogen auf der Basis einer ausführlichen systematischen Literaturrecherche, Leitfadeninterviews mit gynäkologischen Patientinnen sowie einer Befragung von 18 Experten. Dieser Fragebogen beinhaltete 58 Arzt bezogene Betreuungsbedürfnisse-Items, 12 Arzthelferinnen bezogene Betreuungsbedürfnisse-Items und 21 Praxisorganisation und Praxisstruktur bezogene Betreuungsbedürfnisse-Items. Die Probandinnen bewerteten die Wichtigkeit der Erfüllung jedes Items anhand einer fünfstufigen Antwortskala im Likert-Format (1 = nicht wichtig, 5 = sehr wichtig). Zudem wurden soziodemografische Daten sowie gesundheitsbezogene Kontrollüberzeugungen der Probandinnen erhoben. Im Sinne einer multizentrisch angelegten Querschnittstudie wurde der Fragebogen an 1.000 Patientinnen in zehn gynäkologischen Praxen in drei deutschen Bundesländern ausgegeben. Insgesamt erhielten wir 965 ausgefüllte Fragebögen zurück. Mittels deskriptiver Statistiken konnten die soziodemografischen Daten sowie die einzelnen Betreuungsbedürfnisse-Items ausgewertet werden. Zur Entwicklung reliabler Betreuungsbedürfnis-Skalen wurde der Datensatz einer Hauptkomponentenanalyse (PCA mit Varimax-Rotation) unterzogen. Auf diesem Wege konnte ein Erfassungsinstrument (Fragebogen „Betreuungsbedürfnisse – Gynäkologische Krebsfrüherkennungsuntersuchung (BB-G KFU)“) bestehend aus sieben reliablen Betreuungsbedürfnis-Skalen (BB-S) entwickelt werden, welche die psychosozialen Betreuungsbedürfnisse und -wünsche von Patientinnen mit Bezug auf den Gynäkologen (BB-S-A), die Arzthelferin (BB-S-AH) sowie die Praxisstruktur (BB-S-P) abzubilden vermögen: „Bedürfnis nach Information“ (BB-S-A-I), „Bedürfnis nach Respekt und Einfühlungsvermögen im Rahmen der körperlichen Untersuchung“ (BB-S-A-RE), „Bedürfnis nach Zuwendung und Verfügbarkeit“ (BB-S-A-ZV), „Bedürfnis nach Zuwendung und Service“ (BB-S-AH-ZS), „Bedürfnis nach logistischer Unterstützung“ (BB-S-AH-L), „Bedürfnis nach Basisausstattung und Erreichbarkeit“ (BB-S-P-BE) und „Bedürfnis nach Zusatzausstattung“ (BB-S-P-Z). Die durch die drei arztbezogenen Komponenten (bestehend aus 33 Items) aufgeklärte Gesamtvarianz beträgt 40,29%, die der arzthelferinnenbezogenen 2-Komponentenlösung (11 Items) 48,92%, und die Totalvarianz der zwei Dimensionen mit Bezug auf die Praxisstruktur (19 Items) liegt bei 41,68%. Die Reliabilitäten der sieben Skalen sind als akzeptabel bis sehr gut zu bewerten (Cronbachs α = .71 - .89). Anhand der Korrelationen zum KKG (Fragen zu Kontrollüberzeugungen über Krankheit und Gesundheit von Lohaus und Schmitt) konnten erste positive Hinweise auf die Validität des BB-G KFU gefunden werden. Durch den Vergleich der einzelnen Mittelwerte konnte die hierarchische Organisation der Betreuungsbedürfnisse gemäß ihrer Wichtigkeit sichtbar gemacht werden: Die Arbeit zeigt, dass Patientinnen im Rahmen der gynäkologischen KFU der Informationsvermittlung durch den Arzt (BB-S-A-I; M = 1,51; SD = 0,47) wie auch der ärztlichen Zuwendung und Verfügbarkeit (BB-S-A-ZV; M = 1,39; SD = 0,38) in der Wertigkeitsrangfolge einen besonders hohen Platz einräumen. Die Datenanalysen zeigen zudem eine Abhängigkeit der Betreuungsbedürfnisse vom Alter und vom Sozialstatus der Patientinnen, jedoch nicht vom Familienstand und den gesundheitsbezogenen Kontrollüberzeugungen.