151 resultados para Fwang Tung
Resumo:
In der vorliegenden Arbeit soll der Stellenwert der ce-MRA unter Verwendung von MS-325, einem neuen intravaskulären Kontrastmittel, bei der Untersuchung der Fußgefäße im Vergleich zur DSA bewertet, und das Übereinstimmen der Befunde zweier unterschiedlich erfahrener Untersucher untersucht werden. Im Rahmen einer klinischen Phase-III-Studie wurden 18 Patienten mit pAVK und / oder diabetischem Fußsyndrom rekrutiert. Die ce-MRA-Untersuchungen wurden in einem 1,5-Tesla-Magnetom durchgeführt. Dabei wurden dynamische Serien und eine hochaufgelöste Steady-state-Sequenz des zu untersuchenden Fußes akquiriert. Als Kontrastmittel wurde MS-325 in einer an das Körpergewicht adap-tierten Dosis appliziert. Die DSA-Untersuchung enthielt eine komplette Becken-Bein-Angiographie mit selektiver Darstellung der Fußgefäße. Vor der Befundung wurden die Bilddaten der MR-Angiographie nachbearbeitet und MIP-Projektionen erstellt. Zwei Untersucher befundeten unabhängig voneinander und in zufälliger Reinfolge die MRA, die DSA wurde in einem Konsensusverfahren beider Unter-sucher beurteilt. In eine qualitative Analyse gingen die Bewertung der Bildquali-tät, die Sichtbarkeit von sieben Gefäßsegmenten und deren hämodynamisch relevanter Stenosegrad ein. Quantitativ wurde das Signal-Rausch-Verhältnis und das Kontrast-Rausch-Verhältnis untersucht. Die Bildqualität beider Modalitäten wurde im Median mit gut bewertet. Hinsichtlich der Sichtbarkeit der Gefäßsegmente zeigte sich die ce-MRA der DSA überlegen. Von insgesamt 126 Gefäßsegmenten waren nur 80 in der DSA sichtbar, dagegen waren 106 Gefäßsegmente in der ce-MRA sichtbar (p-Wert <0,001, McNemar-Test). Die Übereinstimmung zwischen beiden Untersuchern der ce-MRA war sehr gut, beide erkannten 105 von 126 Gefäßsegmenten (Kappa-Maß κ=0,97). Beide Modalitäten werteten übereinstimmend 46 Gefäßsegmente als hämodynamisch relevant stenosiert. 16 Gefäßstenosen wurden durch die ce-MRA im Gegensatz zur DSA überbewertet. Zwischen Untersucher 1 und Untersucher 2 der ce-MRA fand sich erneut eine sehr gute Übereinstimmung (Kappa-Maß к = 0,89). Die Messungen des SNR und des CNR ergaben sowohl in den dynamischen Se-quenzen als auch in der später akquirierten hochaufgelösten Steady-state Unter-suchung hohe Werte. Die Bildqualität der hochaufgelösten Steady-state ce-MRA war hervorragend, jedoch beeinträchtigt venöse Überlagerung die Interpretation. In der Literatur wird die ce-MRA als ein geeignetes Verfahren zur Darstellung von Fußgefäßen beschrieben. Zahlreiche Studien zeigen, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können. Dieses Ergebnis konnte in der vor-liegenden Arbeit bestätigt werden. Eine mit MS-325 verstärkte Magnetresonanz-angiographie der Fußgefäße ist der selektiven DSA überlegen. Die Tatsache, dass mit der ce-MRA mehr Gefäßsegmente dargestellt werden können, hat den Begriff des angiographisch „verborgenen“ Blutgefäßes initiiert. In vielen klini-schen Zentren hat die ce-MRA die DSA weitgehend verdrängt. Aus diesem Grund wird in der Literatur vorgeschlagen, dass die ce-MRA die DSA als einen „verbes-serten Goldstandard“ ersetzten könnte. Kann mit der DSA kein passendes An-schlussgefäß für eine Revaskularisationsmaßnahme mittels Bypass gefunden werden, so sollte auf jeden Fall eine ce-MRA der Fußgefäße durchgeführt wer-den, um eine Amputation zu verhindern. In der Literatur wird von der Änderung der Behandlungsstrategie nach der Durchführung der ce-MRA berichtet. Bei der Klassifikation von Gefäßstenosen wertet die ce-MRA öfter höher als die DSA, diese Überbewertung ist in der Literatur bekannt und konnte ebenfalls in der vorliegenden Arbeit bestätigt werden. Diese Überschätzung resultiert aus „Spin-Dephasierung“ durch turbulente Blutströmung im Bereich einer Stenose oder besteht auf Grund von Partialvolumeneffekten. Die Verwendung eines intravaskulären Kontrastmittels, wie bsw. MS-325, zur MR-Angiographie bringt den Vorteil, dass sowohl dynamische als auch Steady-state Untersuchungen aller vaskulären Strukturen im menschlichen Körper durchge-führt werden können. Da eine hohe Signalintensität über einen langen Zeitraum besteht, können auch mehrere Körperregionen während einer einzigen Untersu-chung dargestellt werden. Nachteilig ist jedoch die Beeinträchtigung der Bildge-bung durch venöse Überlagerung. Mittels computergestützter Bildnachbearbeitung ist es jedoch möglich, Venen in Steady-state-Sequenzen zu unterdrücken und daraus ergibt sich die Möglichkeit, hochaufgelöste, überlage-rungsfreie Datensätze zu erhalten. Diese könnten dann der erste Schritt in Rich-tung einer Perfusionsbildgebung am Fuß sein, um bsw. den Erfolg von Revaskularisationsmaßnahmen auch auf Kapillarebene beurteilen zu können.
Resumo:
ZusammenfassungrnrnrnDer Köderstreifentest, die Auswertung der Minicontainer und die Erfassung der Bodenlebewesen mit Hilfe der Bodenstechkerne ergeben zusammen eine gut standardisierte Methode zur Darstellung und Beurteilung der Mesofauna. Unter der Vorraussetzung gleicher abiotischer Faktoren ist es problemlos möglich, selbst unterschiedliche Standorte wie Agrarflächen, Weinberge und Waldböden vergleichend zu untersuchen.rnrnAuf den verschiedenen Versuchsflächen des Laubenheimer Weinberges gelingt es deutlich zu zeigen, wie wichtig eine naturnahe Begrünung für den Boden ist. Dies betrifft nicht nur die Entwicklung der Humusschicht und damit die Bodenlebewesen, sondern auch die Schaffung von Kapillaren und Poren, die durch schwere landwirtschaftliche Geräte im Rahmen der Bo-denverdichtung reduziert werden. Erosionserscheinungen kommen vollständig zum Stillstand. Das Ökosystem Boden sollte auch so gut wie keine Belastung durch Herbizide, Insektizide und Pestizide erfahren. Ähnliches gilt auch für agrarisch genutzte Flächen. rnrnDer Lennebergwald als Naherholungsregion von Mainz ist besonders schützenswert, da dieser durch intensiven Immissionseintrag aufgrund der Nähe zu den Autobahnen und durch die Eutrophierung über die Haustiere stark belastet wird. Die immer größere Ausdehnung des Siedlungsgebietes und die damit verbundene steigende Anzahl an Waldbesuchern, die durch Verlassen der vorgegebenen Wege den Boden zerstören, gefährden zusätzlich das Ökosystem.rnrnÜber Sinn und Zweck einer Flurbereinigung zu diskutieren ist hier nicht angebracht. Aus bo-denkundlicher Sicht ist sie nicht zu befürworten, da hiermit alle bodenbewahrenden Maßnah-men ignoriert werden. Wichtig ist es, bei den Landwirten Aufklärungsarbeit zu leisten, was bodenschonende und bodenweiterentwickelnde Bearbeitungsmethoden bedeuten. Mit Hilfe sachgemäßer Aufklärung und richtiger Umsetzung kann durch Begrünungsmaßnahmen der zum Teil sehr stark strapazierte Boden erhalten, gefördert und auf lange Sicht stabilisiert wer-den.rnrnAufgrund der festgestellten Tatsachen wurde ab 2008 auf eine flächige Dauerbegrünung um-gestellt, so dass es auch in den unbegrünten Rebzeilen zu einer Bodenverbesserung kommen kann. Mit großer Wahrscheinlichkeit dürfte diese schneller voranschreiten, da die Mesofauna von den benachbarten begrünten Rebzeilen einwandern kann. rnDie Mesofauna landwirtschaftlich genutzter Flächen und Waldgebiete kann, obwohl extrem unterschiedlich, miteinander verglichen werden.rnrnBrachflächen und Waldgebiete lassen sich aufgrund der unberührten Bodenstrukturen sogar gut miteinander vergleichen. Temperatur- und Niederschlagsverhältnisse müssen dabei über-einstimmen. Die Azidität der jeweiligen Böden gilt es zu berücksichtigen, da verschiedene Tiergruppen damit unterschiedlich umgehen. Collembolen bevorzugen neutrale Böden, wäh-rend Acari als Räuber mit den Lebewesen in sauren Böden besser zurechtkommen. Die Streu-auflage ist dabei von großer Bedeutung.rnrnIm Rahmen von Bearbeitungsmaßnahmen kommt es durch jeglichen Maschineneinsatz zu ei-ner mehr oder weniger starken Veränderung der Bodenstruktur und somit auch der darin le-benden Mesofauna. Bis sich diese erholt hat, steht meist schon die nächste Bodenbewirtschaf-tung an. Die Bodenverdichtung spielt auch eine Rolle. Bei herkömmlichem Ackerbau ist eine Fruchtfolge mit eingeschalteter Brache oder Gründüngung mit Klee oder Luzerne angebracht, um die Mesofauna nicht zu stark zu strapazieren. Organische Düngegaben leicht abbaubarer Streu sind deutlich zu bevorzugen gegenüber sehr zellulose- und ligninhaltigen Pflanzenresten. Die Einbringung von Stoppeln nach Aberntung von Getreidefeldern ist sinnvoll, solange dabei nicht zu tief in die Bodenstruktur eingegriffen wird (ZIMMER 1997).rnrnIm Rahmen der Sonderkultur Wein, bei der eine Bodenbearbeitung aus den aufgezeigten Gründen eigentlich nicht notwendig wäre, sind Dauerbegrünungsmaßnahmen generell von Nutzen: der Erosion wird vorgebeugt, die Bodenfeuchte konstant gehalten, der anfallende Mulch als Gründüngung genutzt. Dies sind alles entscheidende Faktoren, die die Meso- und Makrofauna fördern. Nur die Bodenverdichtung durch schweres Gerät, wie Schlepper und Vollernter, sind für den Boden nicht förderlich (HEISLER 1993, EHRENSBERGER 1993). Nie-derdruckreifen und Verringerung der Befahrung sind geeignete Gegenmaßnahmen. rnrnEntgegen landläufiger Winzermeinung, stellen die Pflanzen einer Begrünung eigentlich keine Konkurrenz für die Weinstöcke dar. Die Vorteile einer Begrünung sind nicht nur die Förde-rung der einheimischen Flora in ihrem standortgerechten Artenreichtum, sondern auch Ver-vielfältigung von Meso- und Makrofauna aufgrund der dadurch mehr anfallenden und ein-zuarbeitenden leicht abbaubaren Streu (GRIEBEL 1995).rn
Resumo:
Die vorliegende Arbeit befasst sich mit der Erlösdiversifizierung privater deutscher Free-TV-Unternehmen. Im Zentrum stehen dabei die Entwicklung eines Nutzwerttheo-rie-basierten Modells zur Bestimmung attraktiver Diversifikationsfelder und dessen empirische Überprüfung. Zur Modellbildung werden sowohl der market-based als auch der resource-based View des strategischen Managements berücksichtigt und methodisch integriert. Zunächst werden anhand von Fallstudien der Mediengruppe RTL Deutsch-land und der ProSiebenSat.1 Media AG der strategische Optionsraum bestehend aus 15 Diversifizierungsmärkten identifiziert und die Kernressourcen deutscher Free-TV-Unternehmen untersucht. Aufbauend auf den gewonnenen Erkenntnissen wird das soge-nannte COAT-Diversifizierungsmodell als Rahmenmodell für die Planung und Bewer-tung von Diversifizierungsstrategien entworfen (COAT = Online Content Distribution, Offline Activities und Add-On Services/ Transaction TV). Durch eine ausführliche Be-fragung von 26 hochrangigen Managern, Senderchefs und Branchenbeobachtern der deutschen TV-Industrie wird das entworfene Modell überprüft und die Attraktivität der identifizierten Diversifizierungsmärkte ermittelt. Im Zentrum des Modells und der Ex-pertenbefragung steht die Durchführung einer Nutzwertanalyse, anhand derer zum einen die Marktattraktivität der verschiedenen Diversifizierungsmärkte ermittelt wird (market-based View), und zum anderen die Bedeutung der Kernressourcen eines Free-TV-Unternehmens in den verschiedenen Diversifizierungsmärkten untersucht wird (ressour-ce-based View). Hierzu werden für beide Dimensionen entsprechende Subkriterien de-finiert und eine Nutzwertbewertung für jedes Kriterium in jedem der 15 Märkte vorge-nommen. Aus den ermittelten Teilnutzwerten können für jeden untersuchten Markt ein übergreifender marktorientierter Nutzwert NM und ein ressourcenorienterter Nutzwert NR ermittelt werden. Im Resultat lässt sich ein Nutzwert-Portfolio aufspannen, in dem die 15 Diversifizierungsmärkte entsprechend ihrer ressourcen- und marktorientierten Nutzwertkombinationen in vier Gruppen kategorisiert werden: Diversifizierungsmärkte mit 1) sehr hoher Attraktivität, 2) hoher Marktchance, 3) hoher Opportunität oder rn4) geringer Attraktivität. Abschließend werden erste Normstrategien für die einzelnen Diversifizierungskategorien abgeleitet und die Eignung des COAT-Diversifizierungs-modells für die strategische Planung analysiert.rn
Resumo:
Dendritische Zellen der Haut, wie z.B. die Langerhanszellen (LC) der Epidermis, sind potente antigenpräsentierende Zellen (APC). Nach allogener Blutstammzelltransplantation (engl.: hematopoietic stemm cell transplantation, HSCT) persistieren Empfänger-APC und können Spender-T-Zellen aktivieren. Somit spielen dendritische Zellen eine kritische Rolle bei der Initiierung von akuter Transplantat-Gegen-Wirt-Reaktion (engl.: graft-versus-host-disease, GvHD).rnIn der vorliegenden Arbeit wurde ein Modellsystem entwickelt, welches humane Haut in einem Xenotransplantationsmodell nutzt, um die Wechselwirkung dieser gewebsständigen APC mit alloreaktiven T-Zellen zu untersuchen. Dafür wurden humane Resthautpräparate von subkutanem Gewebe befreit und intraskaptulär auf immunsupprimierte NOD/LtSz-scid IL2R#-null Mäuse (NSG) transplantiert. Diesen Tieren fehlen funktionale T-, B- und NK-Zellen, und sie tolerieren somit ein xenogenes Transplantat. Im Vergleich zu anderen immundefizienten Stämmen, haben sie eine erhöhte Lebenserwartung und es ist zudem möglich humane Hämatopoese durch Stammzellgabe zu etablieren.rnPublizierte Methoden der Hauttransplantation wurden für diese Arbeit optimiert und weiterentwickelt. So konnte die Erfolgsrate von 44% auf bis zu 95% gesteigert werden. Erste Untersuchungen fokussierten den Einfluss der Wundheilung auf die Verteilung dermaler Zellpopulationen, wie z.B. CD11c positive APC, und die Population der LC in der Epidermis. Während der ersten Wochen der Wundheilung war ein vorübergehendes Verschwinden der LC aus der Epidermis zu beobachten. Im Gegensatz dazu waren CD11c positive dermale Zellen permanent detektierbar. Die zu späteren Zeitpunkten festgestellte Repopulation der Epidermis mit LC unterstützt die Hypothese einer lokalen Vorläuferzelle. Die vorgelegten Daten und die lokale proliferative Aktivität dieser Zellen unterstreichen ihre Unabhängigkeit vom peripheren Blut. Versuche, eine Depletion der LC mittels UVC-Bestrahlung zu erreichen, gelangen nicht. Auch dies spricht für das Vorhandensein eines lokalen Vorläufers.rnZur Induktion von GvHD in der transplantierten Haut wurden in vitro DC des Hautspenders generiert und damit HLA-disparate T-Zellen stimuliert. Auf diese Weise sollte eine maximale Alloreaktivität gegen das Hauttransplantat generiert werden. In allen vorgestellten Systemen ließ sich nach Infusion der T-Lymphozyten in transplantierte Tiere, eine T-Zellinduzierte inflammatorische Reaktion auslösen. Optisch war eine deutliche Rötung des Transplantats feststellbar. Diese war jedoch nur in den Proben besonders deutlich, welche T-Zellen mit vorheriger in vitro Stimulation durch DC des Hautspenders erhalten hatten. Histologisch konnten Anzeichen einer Entzündung nachgewiesen werden. Neben Akanthose und Hyperparakeratose, waren deutliche T-Zellinfiltrate detektierbar. Auch Spaltbildung und Ablösung der Epidermis, sowie vereinzelte Apoptosen der epidermalen Zellen wiesen auf eine GvHD artige Entzündung hin.rnEine weitere Beobachtung nach T-Zellgabe, war die Depletion der LC aus der Epidermis. Auch konnte durch spätere T-Zellgaben keine weitere Hautrötung ausgelöst werden. Dies belegt die Funktion der LC als primäre Zielzelle der alloreaktiven T-Zellen. Unterstrichen wird dies durch Verwendung einer LC defizienten Haut, welche keine Hautrötung oder Anzeichen einer Entzündung entwickelte.rnZusammenfassend wurde für diese Arbeit ein Modellsystem entwickelt, welches es erlaubt Untersuchungen entzündlicher Hautkrankheiten unter Berücksichtigung hautständiger APC durchzuführen. Dabei kann dieses Modell in Zukunft für die Untersuchung von APC modulierenden Agenzien genutzt werden, da präklinische Modelle für spezies-spezifische Therapien bislang fehlten. Das Entstehen einer Entzündung könnte so verhindert oder eine Behandlung ermöglicht werden.
Resumo:
Die Arbeit befasst sich mit der Frage, ob Art. 33 II GG die Verwaltung verpflichtet, bei Per-sonalauswahlverfahren nach dem State of the Art der Personaldiagnostik vorzugehen.rnIn Kapitel 1 wird zunächst dieser State of the Art ermittelt. Zu diesem Zweck werden die verschieden personaldiagnostischen Instrumente (Interview, Assessment Center, Intelligenztest usw.) vorgestellt. Danach wird erarbeitet, wie diese Instrumente mit Hilfe der Testanalyse bewertet werden können, also wie sich ein geeignetes personaldiagnostisches Instrument von einem weniger geeigneten unterscheidet. Dazu werden die Qualitätskriterien Validität (Gültigkeit), Objektivität, Reliabilität (Zuverlässigkeit) und Effizienz betrachtet. Schließlich werden die vorgestellten personaldiagnostischen Instrumente an Hand dieser Kriterien beurteilt. Dabei stellt sich unter anderem die hohe Eignung von Intelligenztests für die Personalauswahl heraus.rnIn Kapitel 2 wird der Regelungsgehalt des Art. 33 II GG dargelegt, also zunächst die Ge-schichte seiner Vorgängernormen und die seiner Aufnahme in das Grundgesetz. Anschließend werden seine systematische Stellung, sein Tatbestand und sein Regelungsgehalt näher unter-sucht. Dabei werden auch ergänzende Normen, etwa aus dem Europarecht in den Blick ge-nommen. rnIn Kapitel 3 wird erkundet, durch welche rechtlichen Argumente die Verwaltung verpflichtet sein könnte, den State of the Art der Eignungsdiagnostik bei der Personalauswahl zu beach-ten. Dabei wird vorrangig die Rechtsfigur des Grundrechtsschutzes durch Verfahren in den Blick genommen. In diesem Zusammenhang wird deutlich gemacht, dass Art. 33 II GG ohne ein seiner Verwirklichung dienendes Auswahlverfahren bedeutungslos bleiben muss. Aber auch mit dem Art. 19 IV GG wird argumentiert, weil ein die Erkenntnisse der Eignungsdiag-nostik berücksichtigendes Personalauswahlverfahren vor Gericht besser überprüft werden kann als ein freies Personalauswahlverfahren.rnIn Kapitel 4 werden die Konsequenzen der vorhergehenden Erkenntnisse für die konkrete Gestaltung von Personalauswahlverfahren dargelegt, insbesondere die Verpflichtung für die Verwaltung, einige besonders geeignete Instrumente anzuwenden und einige nicht geeignete Instrumente nicht anzuwenden und bei der Anwendung bestimmte Standards einzuhalten. Schließlich wird auch empfohlen, dass der Gesetzgeber die Personalauswahlverfahren regelt, weil das Auswahlverfahren für das Grundrecht aus Art. 33 II GG von entscheidender Bedeu-tung ist. rn
Resumo:
Our growing understanding of human mind and cognition and the development of neurotechnology has triggered debate around cognitive enhancement in neuroethics. The dissertation examines the normative issues of memory enhancement, and focuses on two issues: (1) the distinction between memory treatment and enhancement; and (2) how the issue of authenticity concerns memory interventions, including memory treatments and enhancements. rnThe first part consists of a conceptual analysis of the concepts required for normative considerations. First, the representational nature and the function of memory are discussed. Memory is regarded as a special form of self-representation resulting from a constructive processes. Next, the concepts of selfhood, personhood, and identity are examined and a conceptual tool—the autobiographical self-model (ASM)—is introduced. An ASM is a collection of mental representations of the system’s relations with its past and potential future states. Third, the debate between objectivist and constructivist views of health are considered. I argue for a phenomenological account of health, which is based on the primacy of illness and negative utilitarianism.rnThe second part presents a synthesis of the relevant normative issues based on the conceptual tools developed. I argue that memory enhancement can be distinguished from memory treatment using a demarcation regarding the existence of memory-related suffering. That is, memory enhancements are, under standard circumstances and without any unwilling suffering or potential suffering resulting from the alteration of memory functions, interventions that aim to manipulate memory function based on the self-interests of the individual. I then consider the issue of authenticity, namely whether memory intervention or enhancement endangers “one’s true self”. By analyzing two conceptions of authenticity—authenticity as self-discovery and authenticity as self-creation, I propose that authenticity should be understood in terms of the satisfaction of the functional constraints of an ASM—synchronic coherence, diachronic coherence, and global veridicality. This framework provides clearer criteria for considering the relevant concerns and allows us to examine the moral values of authenticity. rn
Resumo:
Zweifelsohne war und ist das Prinzip der Chancengleichheit – gleiches Recht auf Entfaltung ungleicher Anlagen – eine Maxime für die Bildungspolitik und Gestal-tung von Bildungssystemen (vgl. Müller 1998; Friedeburg 1992; Baumert 1991: 333). Diese Prämisse wird nicht zuletzt durch Artikel 3, Absatz 3 des Grundgeset-zes, wonach niemand wegen seines Geschlechts, seiner Abstammung, seiner Ras-se, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden darf, inhalt-lich vorgegeben. So lag ein Hauptteil der Zielsetzungen von Bildungsreformen seit den 1960er Jahren darin, die Rahmenbedingungen für den Bildungszugang – für die Chancennutzung – in der Weise zu setzen, dass weder das strukturelle Angebot an Bildungsgelegenheiten noch sozialstrukturelle Eigenschaften von Schulkindern und ihres Elternhauses systematische Einflüsse auf den Bildungsweg und den Erwerb von Bildungszertifikaten haben (Friedeburg 1992). Mit dem Ausbau des Schul- und Hochschulwesens und den institutionellen Reformen seit den 1960er Jahren ist das Ziel auch größtenteils erreicht worden, dass neben institutionellen Barrieren auch ökonomische und geografische Barrieren beim Bildungszugang weitgehend an Bedeutung verloren haben (Müller 1998; Krais 1996). Bildungs-disparitäten nach sozialstrukturellen Merkmalen wie etwa Klassenlage des Eltern-hauses haben sich ebenfalls bis zu einem bestimmten Grad abgeschwächt (Müller und Haun 1994; Schimpl-Neimanns 2000). Insbesondere konnten Mädchen ihre Bildungsdefizite gegenüber den Jungen mehr als ausgleichen (Rodax und Rodax 1996; Rodax 1995), sodass nunmehr von einer Bildungsungleichheit zu Unguns-ten von Jungen auszugehen ist (Diefenbach und Klein 2002; Becker 2007). Einige der beabsichtigten wie unbeabsichtigten Folgen dieser Reformbemühungen kön-nen am Wandel der Bildungsbeteiligung, insbesondere beim Übergang von der Grundschule auf das Gymnasium, abgelesen werden (Becker 2006).
Resumo:
Als Gesundheitssystem bezeichnet man die Gesamtheit der Einrichtungen, deren Aufgabe es ist, die Gesundheit einzelner Menschen und die der gesamten Bevölkerung zu erhalten, zu fördern und wiederherzustellen sowie Krankheiten vorzubeugen. Gesundheitssysteme können sehr verschieden organisiert und finanziert werden. Üblicherweise unterscheidet man Sozialversicherungsmodelle von nationalen Gesundheitsdiensten. Viele Gesundheitssysteme haben Elemente aus beiden Organisationsmodellen übernommen. In diesem Kapitel vergleichen wir zuerst die Organisation, die Kosten und die Qualität der Gesundheitssysteme verschiedener Länder und diskutieren dann ausführlich die Situation in der Schweiz und in Deutschland. Dabei beleuchten wir die Rolle, die der Staat in den jeweiligen Gesundheitssystemen übernimmt und betrachten die Organisation der medizinischen und pflegerischen Versorgung sowie Kosten, Vergütung und Finanzierung der Leistungen. Ein zentraler Aspekt im Hinblick auf die Qualität der Gesundheitssysteme ist die Patientensicherheit, mit der wir uns abschließend beschäftigen. Schweizerische Lernziele: CPH 4, CPH 21–26
Resumo:
The COSMIC-2 mission is a follow-on mission of the Constellation Observing System for Meteorology, Ionosphere, and Climate (COSMIC) with an upgraded payload for improved radio occultation (RO) applications. The objective of this paper is to develop a near-real-time (NRT) orbit determination system, called NRT National Chiao Tung University (NCTU) system, to support COSMIC-2 in atmospheric applications and verify the orbit product of COSMIC. The system is capable of automatic determinations of the NRT GPS clocks and LEO orbit and clock. To assess the NRT (NCTU) system, we use eight days of COSMIC data (March 24-31, 2011), which contain a total of 331 GPS observation sessions and 12 393 RO observable files. The parallel scheduling for independent GPS and LEO estimations and automatic time matching improves the computational efficiency by 64% compared to the sequential scheduling. Orbit difference analyses suggest a 10-cm accuracy for the COSMIC orbits from the NRT (NCTU) system, and it is consistent as the NRT University Corporation for Atmospheric Research (URCA) system. The mean velocity accuracy from the NRT orbits of COSMIC is 0.168 mm/s, corresponding to an error of about 0.051 μrad in the bending angle. The rms differences in the NRT COSMIC clock and in GPS clocks between the NRT (NCTU) and the postprocessing products are 3.742 and 1.427 ns. The GPS clocks determined from a partial ground GPS network [from NRT (NCTU)] and a full one [from NRT (UCAR)] result in mean rms frequency stabilities of 6.1E-12 and 2.7E-12, respectively, corresponding to range fluctuations of 5.5 and 2.4 cm and bending angle errors of 3.75 and 1.66 μrad .
Resumo:
The near nucleus coma of Comet 9P/Tempel 1 has been simulated with the 3D Direct Simulation Monte Carlo (DSMC) code PDSC++ (Su, C.-C. [2013]. Parallel Direct Simulation Monte Carlo (DSMC) Methods for Modeling Rarefied Gas Dynamics. PhD Thesis, National Chiao Tung University, Taiwan) and the derived column densities have been compared to observations of the water vapour distribution found by using infrared imaging spectrometer on the Deep Impact spacecraft (Feaga, L.M., A’Hearn, M.F., Sunshine, J.M., Groussin, O., Farnham, T.L. [2007]. Icarus 191(2), 134–145. http://dx.doi.org/10.1016/j.icarus.2007.04.038). Modelled total production rates are also compared to various observations made at the time of the Deep Impact encounter. Three different models were tested. For all models, the shape model constructed from the Deep Impact observations by Thomas et al. (Thomas, P.C., Veverka, J., Belton, M.J.S., Hidy, A., A’Hearn, M.F., Farnham, T.L., et al. [2007]. Icarus, 187(1), 4–15. http://dx.doi.org/10.1016/j.icarus.2006.12.013) was used. Outgassing depending only on the cosine of the solar insolation angle on each shape model facet is shown to provide an unsatisfactory model. Models constructed on the basis of active areas suggested by Kossacki and Szutowicz (Kossacki, K., Szutowicz, S. [2008]. Icarus, 195(2), 705–724. http://dx.doi.org/10.1016/j.icarus.2007.12.014) are shown to be superior. The Kossacki and Szutowicz model, however, also shows deficits which we have sought to improve upon. For the best model we investigate the properties of the outflow.
Resumo:
In this paper we make a further step towards a dispersive description of the hadronic light-by-light (HLbL) tensor, which should ultimately lead to a data-driven evaluation of its contribution to (g − 2) μ . We first provide a Lorentz decomposition of the HLbL tensor performed according to the general recipe by Bardeen, Tung, and Tarrach, generalizing and extending our previous approach, which was constructed in terms of a basis of helicity amplitudes. Such a tensor decomposition has several advantages: the role of gauge invariance and crossing symmetry becomes fully transparent; the scalar coefficient functions are free of kinematic singularities and zeros, and thus fulfill a Mandelstam double-dispersive representation; and the explicit relation for the HLbL contribution to (g − 2) μ in terms of the coefficient functions simplifies substantially. We demonstrate explicitly that the dispersive approach defines both the pion-pole and the pion-loop contribution unambiguously and in a model-independent way. The pion loop, dispersively defined as pion-box topology, is proven to coincide exactly with the one-loop scalar QED amplitude, multiplied by the appropriate pion vector form factors.
Resumo:
The difficulty of detecting differential gene expression in microarray data has existed for many years. Several correction procedures try to avoid the family-wise error rate in multiple comparison process, including the Bonferroni and Sidak single-step p-value adjustments, Holm's step-down correction method, and Benjamini and Hochberg's false discovery rate (FDR) correction procedure. Each multiple comparison technique has its advantages and weaknesses. We studied each multiple comparison method through numerical studies (simulations) and applied the methods to the real exploratory DNA microarray data, which detect of molecular signatures in papillary thyroid cancer (PTC) patients. According to our results of simulation studies, Benjamini and Hochberg step-up FDR controlling procedure is the best process among these multiple comparison methods and we discovered 1277 potential biomarkers among 54675 probe sets after applying the Benjamini and Hochberg's method to PTC microarray data.^
Resumo:
The 23rd Annual Biochemical Engineering Symposium was held at the University of Oklahoma on April 17, 1993. The objectives of the symposium were to provide 1) a forum for informal discussion of biochemical engineering research being carried at the participating universities and 2) an opportunity for students to present and publish their work. Thirteen papers presented at the symposium are included in the proceedings. Because final publication usually takes place in refereed journals, the articles included here are typically brief and often cover work in progress. The program of the symposium and a list of participants are included in the proceedings. ContentsA Low-Cost Bioreactor Strategy for RNA Synthesis, H. Anthony Marble, Eleni Chrisikos, and Robert H. Davis Development of a CELSS Bioreactor: Oxygen Transfer and Micromixing in Parabolic Flight, P.E. Villeneuve, K.S. Wenger, B.G. Thompson, T. Kedar, and E.H. Dunlop Scale-up of Dexter Murine Bone Marrow Cultures Utilizing a Three-Dimensional Fiberglass Support Matrix, John G. Highfill, Paul Todd, Steve Haley, and Dhinaker Kompala Modeling and Estimation of States of Recombinant Fermentations Using Nonlinear Input/Output Models, Vicotr M. Saucedo and M. Nazmul Karim Deadent Microfiltration of Bovine Serum Albumin Suspension Through Yeast Cake Layers and Assymetric Polymeric Membranes, Naveen Arora and Robert H. Davis Monitoring the Fate of Toluene and Phenol in the Rhizosphere, N. Muralidharan, Lawrence C. Davis, and Larry E. Erickson Hydrodynamic Motions Associated with Bubble Coalescence and Breakup, T.Y. Yiin, L.A. Glasgow, and L.E. Erickson Expression and Purification of a-Human Atrial Natriuretic Peptide in Escherichia coli by Fusion with L-Asparaginase, Nien-Tung Ma and Roger G. Harrison High Pressure Crystallization of Proteins, Mungara V. Saikumar, Charles E. Glatz, and Maurice A. Larson Structure/Function Relationships in the Catalytic and Starch Binding Domains of Glucoamylase, Pedro M. Coutinho, Clark Ford, Peter J. Reilly Cellular Responses of Insect Cell Spodoptera frugiperda to Environmental Stresses, Paul Yeh, Grace Y. Sun, Gary A. Weisman, Rakesh Bajpai A Novel Approach to Understanding the Antimicrobial Activity of Peptides, Naveen Pathak, Marie-Helene Janna, Gael Ruche, David McCarthy, and Roger Harrison Mass Transfer in the Bioremediation of Soils Contaminated with Trapped Non-Aqueous Phase Liquids, Xiaoqing Yang, Larry E. Jacobson, and L.T. Fan
Resumo:
Durante la expansión colonizadora de las décadas de 1920-1930 en el Alto Paraná Misionero, el tabaco fue para los colonos alemanes-brasileños un cultivo destinado a la obtención de ingresos monetarios y bienes de consumo. El objetivo de este trabajo es analizar el vínculo entre productores y acopiadores de tabaco, tratando de identificar los elementos conflictivos de esta relación (disputas por la clasificación y el precio del producto). El trabajo heurístico se focalizó en la Compañía Johann, la empresa acopiadora más grande de la colonia Puerto Rico y la única que mantiene los registros desde su creación (1929). El producto que acopió por más tiempo fue el tabaco (1929-1985), y en orden de importancia decreciente también acopiaron tung, almidón de mandioca y grasa de cerdo. A través de los libros de acopio y de venta de tabaco enfardelado se da vida a las dos caras de la producción del tabaco: los productores tabacaleros y los acopiadores. Dicha información ha sido enriquecida con entrevistas a informantes clave.
Resumo:
Durante la expansión colonizadora de las décadas de 1920-1930 en el Alto Paraná Misionero, el tabaco fue para los colonos alemanes-brasileños un cultivo destinado a la obtención de ingresos monetarios y bienes de consumo. El objetivo de este trabajo es analizar el vínculo entre productores y acopiadores de tabaco, tratando de identificar los elementos conflictivos de esta relación (disputas por la clasificación y el precio del producto). El trabajo heurístico se focalizó en la Compañía Johann, la empresa acopiadora más grande de la colonia Puerto Rico y la única que mantiene los registros desde su creación (1929). El producto que acopió por más tiempo fue el tabaco (1929-1985), y en orden de importancia decreciente también acopiaron tung, almidón de mandioca y grasa de cerdo. A través de los libros de acopio y de venta de tabaco enfardelado se da vida a las dos caras de la producción del tabaco: los productores tabacaleros y los acopiadores. Dicha información ha sido enriquecida con entrevistas a informantes clave.