932 resultados para Medizinische Modelle
Resumo:
Gluten-induced enteropathy or coeliac disease is a condition characterized by malabsorption and a variety of clinical manifestations. In adults, coeliac disease may be discovered while investigating iron-deficient anemia, bone pain or unexplained weight loss. We have recently diagnosed a case of gluten-induced enteropathy in an elderly woman whose symptoms were unusual. The patient had episodes of laryngospasm secondary to severe hypocalcemia and hypomagnesemia. The malabsorption syndrome was responsible for low levels of vitamin D, causing the electrolytic imbalance. Laryngospasm is a rare symptom of hypocalcemia and has not, to our knowledge, been described in the context of coeliac disease.
Resumo:
In Switzerland from 1969-1985, 9 out of 11 influenza epidemics were associated with a statistically significant increase in mortality. A total of 12,202 excess deaths from all causes was identified. Expected deaths were forecast for each epidemic period separately for 4 age groups using Fourier and Arima modeling. 75.7% of all-cause excess deaths occurred in age group 70 to 89 and 5.1% in age group 1-59. In the 70-89 years old group the excess mortality risk during influenza epidemics was 271.6 per 100,000, whereas in age group 1-59 it was only 1.7 per 100,000. Only 40% of all excess deaths had been ascribed to acute respiratory conditions. Influenza viruses A H3N2 were the most frequently identified agents. In some instances mortality increased before the morbidity reports of the Swiss practitioners indicated the occurrence of an epidemic. Also, morbidity reporting decreased over successive years. A decrease in mortality following the epidemics was not observed. A more complete vaccination of high risk patients in Switzerland is desirable.
Resumo:
Statistics has become an indispensable tool in biomedical research. Thanks, in particular, to computer science, the researcher has easy access to elementary "classical" procedures. These are often of a "confirmatory" nature: their aim is to test hypotheses (for example the efficacy of a treatment) prior to experimentation. However, doctors often use them in situations more complex than foreseen, to discover interesting data structures and formulate hypotheses. This inverse process may lead to misuse which increases the number of "statistically proven" results in medical publications. The help of a professional statistician thus becomes necessary. Moreover, good, simple "exploratory" techniques are now available. In addition, medical data contain quite a high percentage of outliers (data that deviate from the majority). With classical methods it is often very difficult (even for a statistician!) to detect them and the reliability of results becomes questionable. New, reliable ("robust") procedures have been the subject of research for the past two decades. Their practical introduction is one of the activities of the Statistics and Data Processing Department of the University of Social and Preventive Medicine, Lausanne.
Resumo:
To assess the reliability of the Remler system, a semi-automatic pressure recording device, several blood pressures were measured simultaneously by the conventional auscultatory method and by the Remler in 12 normotensive volunteers. In all situations tested both the Remler and auscultatory blood pressures were very close, thus demonstrating the reliability of this new technique. Ambulatory blood pressure recordings were then obtained with the Remler in 245 untreated patients referred for hypertension by their private physicians. Surprisingly, in close to 60% of them the average of all blood pressures recorded during usual activities was within the normal range. Since cardiovascular complications seem to correlate better with ambulatory than with office blood pressure levels, the Remler system appears particularly useful in recognizing those patients who, although hypertensive in the physician's office, remain normotensive during the day and therefore may not require antihypertensive treatment.
Resumo:
Personal results are presented to illustrate the development of immunoscintigraphy for the detection of cancer over the last 12 years, from the early experimental results in nude mice grafted with human colon carcinoma to the most modern form of immunoscintigraphy applied to patients, using I123 labeled Fab fragments from monoclonal anti-CEA antibodies detected by single photon emission computerized tomography (SPECT). The first generation of immunoscintigraphy used I131 labeled, immunoadsorbent purified, polyclonal anti-CEA antibodies and planar scintigraphy, as the detection system. The second generation used I131 labeled monoclonal anti-CEA antibodies and SPECT, while the third generation employed I123 labeled fragments of monoclonal antibodies and SPECT. The improvement in the precision of tumor images with the most recent forms of immunoscintigraphy is obvious. However, we think the usefulness of immunoscintigraphy for routine cancer management has not yet been entirely demonstrated. Further prospective trials are still necessary to determine the precise clinical role of immunoscintigraphy. A case report is presented on a patient with two liver metastases from a sigmoid carcinoma, who received through the hepatic artery a therapeutic dose (100 mCi) of I131 coupled to 40 mg of a mixture of two high affinity anti-CEA monoclonal antibodies. Excellent localisation in the metastases of the I131 labeled antibodies was demonstrated by SPECT and the treatment was well tolerated. The irradiation dose to the tumor, however, was too low at 4300 rads (with 1075 rads to the normal liver and 88 rads to the bone marrow), and no evidence of tumor regression was obtained. Different approaches for increasing the irradiation dose delivered to the tumor by the antibodies are considered.
Resumo:
In 1875, 7 years prior to the description of the Koch bacillus, Klebs visualized the first Streptococcus pneumoniae in pleural fluid. Since then, this organism has played a decisive role in biomedical science. From a biological point of view, it was extensively involved in the development of passive and active immunization by serotherapy and vaccination respectively. Genetic transformation was also first observed in S. pneumoniae, leading to the discovery of DNA. From a clinical point of view, S. pneumoniae is today still a prime cause of otitis media in children and of pneumonia in all age groups, as well as a predominant cause of meningitis and bacteremia. In adults, bacteremia still has a mortality of over 25%. Although S. pneumoniae remained very sensitive to penicillin for many years, penicillin-resistant strains have emerged and increased dramatically over the last 15 years. During this period the frequency of penicillin-resistant isolates has increased from < or = 1% to frequencies varying from 20 to 60% in geographic areas as diverse as South Africa, Spain, France, Hungary, Iceland, Alaska, and numerous regions of the United States and South America. In Switzerland, the current frequency of penicillin-resistant pneumococci ranges between 5 and > or = 10%. The increase in penicillin-resistant pneumococci correlates with the intensive use of beta-lactam antibiotics. The mechanism of resistance is not due to bacterial production of penicillinase but to an alteration of the bacterial target of penicillin, the so-called penicillin-binding proteins. Resistance is subdivided into (1) intermediate level resistance (minimal inhibitory concentration [MIC] of penicillin of 0.1-1 mg/l) and (2) high level resistance (MCI > or = 2 mg/l). The clinical significance of intermediate resistance remains poorly defined. On the other hand, highly resistant strains have been responsible for numerous therapeutic failures, especially in cases of meningitis. Antibiotics recommended against penicillin-resistant pneumococci include cefotaxime, ceftriaxone, imipenem and in some instances vancomycin. However, penicillin-resistant pneumococci tend to present cross-resistances to all the antibiotics of the beta-lactam family and could even become resistant to the last resort drugs mentioned above. Thus, the explosion of resistance to penicillin in pneumococci is a ubiquitous phenomenon which must be fought against by (1) avoiding excessive use of antibiotics, (2) the practice of microbiological sampling of infected foci before treatment, (3) the systematic surveillance of resistance profiles of pneumococci against antibiotics and (4) adequate vaccination of populations at risk.
Resumo:
OBJECTIVE: Since 2011, the new national final examination in human medicine has been implemented in Switzerland, with a structured clinical-practical part in the OSCE format. From the perspective of the national Working Group, the current article describes the essential steps in the development, implementation and evaluation of the Federal Licensing Examination Clinical Skills (FLE CS) as well as the applied quality assurance measures. Finally, central insights gained from the last years are presented. METHODS: Based on the principles of action research, the FLE CS is in a constant state of further development. On the foundation of systematically documented experiences from previous years, in the Working Group, unresolved questions are discussed and resulting solution approaches are substantiated (planning), implemented in the examination (implementation) and subsequently evaluated (reflection). The presented results are the product of this iterative procedure. RESULTS: The FLE CS is created by experts from all faculties and subject areas in a multistage process. The examination is administered in German and French on a decentralised basis and consists of twelve interdisciplinary stations per candidate. As important quality assurance measures, the national Review Board (content validation) and the meetings of the standardised patient trainers (standardisation) have proven worthwhile. The statistical analyses show good measurement reliability and support the construct validity of the examination. Among the central insights of the past years, it has been established that the consistent implementation of the principles of action research contributes to the successful further development of the examination. CONCLUSION: The centrally coordinated, collaborative-iterative process, incorporating experts from all faculties, makes a fundamental contribution to the quality of the FLE CS. The processes and insights presented here can be useful for others planning a similar undertaking.
Resumo:
À l'aide des tout derniers modèles narratologiques développés entre autres par Ansgar Nünning, nous nous penchons sur l'oeuvre d'Eveline Hasler, une voix phare de la littérature alémanique contemporaine. À partir d’un corpus de six romans, nous examinons de façon systématique sa poétique du roman historique au regard 1) des techniques narratives, 2) de la marginalité de ses personnages en société, 3) de la conception de l’Histoire, 4) de l'image critique qu'elle présente de la Suisse. Il en ressort un portrait très nuancé de l'oeuvre de Hasler, puisqu’elle allie un récit principalement réaliste, plutôt traditionnel, mais aussi inspiré du langage cinématographique, à des passages métahistoriographiques postmodernes, où une narratrice assimilable à l’auteure fait part au « je » de ses réflexions sur l'Histoire. Même si ces brefs passages relativement rares rappellent sans contredit la posture de l’historien, ils s’inscrivent toutefois dans la fiction, laquelle actualise le passé dans la perspective historique d’un lecteur contemporain. De fait, l’œuvre de Hasler se présente comme un jeu habile avec la liberté poétique et le souci de véracité historique, ce à quoi concourt l’imbrication de documents originaux en italique dans le roman. Par ailleurs, la question de la marginalité en société joue un rôle prépondérant chez Hasler, car tous ses personnages principaux sont autant de marginaux, de Außenseiter. Cette problématique montre entre autres les limites de l’Aufklärung, étant donné que ses tenants, les adversaires des marginaux, se targuent le plus souvent d’être motivés par la pensée éclairante pour mieux la pervertir. Il en résulte la mise à l’écart des individus dérangeants — la prétendue sorcière, le géant et les femmes qui remettent en cause l’organisation patriarcale. Or, certains marginaux de Hasler parviennent à s’arracher un espace de liberté dans la marge, au prix de leurs racines helvétiques. Ainsi, ces marginaux peinent à s’inscrire dans l’Histoire dite officielle, ce que Hasler tente de rectifier en leur redonnant une voix. Sur le plan individuel, la plupart d’entre eux expérimentent une évolution circulaire, puisqu’ils ne parviennent pas à sortir de la marge (sauf peut-être Henry Dunant). Cette impression de tourner en rond s’oppose à une conception de l’Histoire humaine qui se déroule en continuum, puisque les exclusions d’hier préfigurent celles d’aujourd’hui. Au-delà de cette mesure humaine du temps, l’horizon temporel de la nature s’inscrit pour sa part dans la permanence. Ainsi, Hasler développe une conception historique qui varie selon des points de vue coexistants. Cet amalgame est le plus souvent marqué par un certain pessimisme, comme le dénote la vie d’Emily Kempin associée au mythe d’Icare. Finalement, tous les acteurs historiques de Hasler appartiennent au contexte helvétique et en présentent une image assez rétrograde, laquelle se dévoile non seulement à travers la fictionnalisation des lieux, mais aussi par des références à trois symboles nationaux : les Alpes, le réduit helvétique et la légende de Guillaume Tell. Hasler fait le procès de ces mythes, associés à la liberté et à la sauvegarde de ce « peuple de bergers », en montrant que la Suisse n’apporte pas de solution originale aux défis de l’Occident.
Resumo:
Màster Oficial en Construcció i Representació d'Identitats Culturals (CRIC), Curs 2008-2009, Director: Dr. Robert Caner
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.
Resumo:
Bei frühgeborenen Säuglingen spielt die Thermoregulation zur Aufrechterhaltung einer überlebenswichtigen Körpertemperatur durch Wärmeproduktion, -abgabe bzw. -aufnahme eine entscheidende Rolle. Der Einsatz moderner Inkubatoren soll die körpereigenen Thermoregulatoren unterstützen, und es ist im Hinblick auf verschiedene medizinische Fragestellungen wünschenswert, diesen Prozess modellieren zu können. Wir stellen ein einfaches Modell auf der Basis von partiellen Differentialgleichungen vor und beschreiben detailliert die numerische Simulation mit Hilfe einer Finite-Volumen-Methode. Dazu wird ein zweidimensionales Modell eines Frühgeborenen trianguliert und das Modell diskretisiert. Zahlreiche numerische Resultate zeigen die Qualität unseres Modells.