789 resultados para donation vivante de rein
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz
Resumo:
The lattice formulation of Quantum ChromoDynamics (QCD) has become a reliable tool providing an ab initio calculation of low-energy quantities. Despite numerous successes, systematic uncertainties, such as discretisation effects, finite-size effects, and contaminations from excited states, are inherent in any lattice calculation. Simulations with controlled systematic uncertainties and close to the physical pion mass have become state-of-the-art. We present such a calculation for various hadronic matrix elements using non-perturbatively O(a)-improved Wilson fermions with two dynamical light quark flavours. The main topics covered in this thesis are the axial charge of the nucleon, the electro-magnetic form factors of the nucleon, and the leading hadronic contributions to the anomalous magnetic moment of the muon. Lattice simulations typically tend to underestimate the axial charge of the nucleon by 5 − 10%. We show that including excited state contaminations using the summed operator insertion method leads to agreement with the experimentally determined value. Further studies of systematic uncertainties reveal only small discretisation effects. For the electro-magnetic form factors of the nucleon, we see a similar contamination from excited states as for the axial charge. The electro-magnetic radii, extracted from a dipole fit to the momentum dependence of the form factors, show no indication of finite-size or cutoff effects. If we include excited states using the summed operator insertion method, we achieve better agreement with the radii from phenomenology. The anomalous magnetic moment of the muon can be measured and predicted to very high precision. The theoretical prediction of the anomalous magnetic moment receives contribution from strong, weak, and electro-magnetic interactions, where the hadronic contributions dominate the uncertainties. A persistent 3σ tension between the experimental determination and the theoretical calculation is found, which is considered to be an indication for physics beyond the Standard Model. We present a calculation of the connected part of the hadronic vacuum polarisation using lattice QCD. Partially twisted boundary conditions lead to a significant improvement of the vacuum polarisation in the region of small momentum transfer, which is crucial in the extraction of the hadronic vacuum polarisation.
Resumo:
Die Flachwassergleichungen (SWE) sind ein hyperbolisches System von Bilanzgleichungen, die adäquate Approximationen an groß-skalige Strömungen der Ozeane, Flüsse und der Atmosphäre liefern. Dabei werden Masse und Impuls erhalten. Wir unterscheiden zwei charakteristische Geschwindigkeiten: die Advektionsgeschwindigkeit, d.h. die Geschwindigkeit des Massentransports, und die Geschwindigkeit von Schwerewellen, d.h. die Geschwindigkeit der Oberflächenwellen, die Energie und Impuls tragen. Die Froude-Zahl ist eine Kennzahl und ist durch das Verhältnis der Referenzadvektionsgeschwindigkeit zu der Referenzgeschwindigkeit der Schwerewellen gegeben. Für die oben genannten Anwendungen ist sie typischerweise sehr klein, z.B. 0.01. Zeit-explizite Finite-Volume-Verfahren werden am öftersten zur numerischen Berechnung hyperbolischer Bilanzgleichungen benutzt. Daher muss die CFL-Stabilitätsbedingung eingehalten werden und das Zeitinkrement ist ungefähr proportional zu der Froude-Zahl. Deswegen entsteht bei kleinen Froude-Zahlen, etwa kleiner als 0.2, ein hoher Rechenaufwand. Ferner sind die numerischen Lösungen dissipativ. Es ist allgemein bekannt, dass die Lösungen der SWE gegen die Lösungen der Seegleichungen/ Froude-Zahl Null SWE für Froude-Zahl gegen Null konvergieren, falls adäquate Bedingungen erfüllt sind. In diesem Grenzwertprozess ändern die Gleichungen ihren Typ von hyperbolisch zu hyperbolisch.-elliptisch. Ferner kann bei kleinen Froude-Zahlen die Konvergenzordnung sinken oder das numerische Verfahren zusammenbrechen. Insbesondere wurde bei zeit-expliziten Verfahren falsches asymptotisches Verhalten (bzgl. der Froude-Zahl) beobachtet, das diese Effekte verursachen könnte.Ozeanographische und atmosphärische Strömungen sind typischerweise kleine Störungen eines unterliegenden Equilibriumzustandes. Wir möchten, dass numerische Verfahren für Bilanzgleichungen gewisse Equilibriumzustände exakt erhalten, sonst können künstliche Strömungen vom Verfahren erzeugt werden. Daher ist die Quelltermapproximation essentiell. Numerische Verfahren die Equilibriumzustände erhalten heißen ausbalanciert.rnrnIn der vorliegenden Arbeit spalten wir die SWE in einen steifen, linearen und einen nicht-steifen Teil, um die starke Einschränkung der Zeitschritte durch die CFL-Bedingung zu umgehen. Der steife Teil wird implizit und der nicht-steife explizit approximiert. Dazu verwenden wir IMEX (implicit-explicit) Runge-Kutta und IMEX Mehrschritt-Zeitdiskretisierungen. Die Raumdiskretisierung erfolgt mittels der Finite-Volumen-Methode. Der steife Teil wird mit Hilfe von finiter Differenzen oder au eine acht mehrdimensional Art und Weise approximniert. Zur mehrdimensionalen Approximation verwenden wir approximative Evolutionsoperatoren, die alle unendlich viele Informationsausbreitungsrichtungen berücksichtigen. Die expliziten Terme werden mit gewöhnlichen numerischen Flüssen approximiert. Daher erhalten wir eine Stabilitätsbedingung analog zu einer rein advektiven Strömung, d.h. das Zeitinkrement vergrößert um den Faktor Kehrwert der Froude-Zahl. Die in dieser Arbeit hergeleiteten Verfahren sind asymptotisch erhaltend und ausbalanciert. Die asymptotischer Erhaltung stellt sicher, dass numerische Lösung das "korrekte" asymptotische Verhalten bezüglich kleiner Froude-Zahlen besitzt. Wir präsentieren Verfahren erster und zweiter Ordnung. Numerische Resultate bestätigen die Konvergenzordnung, so wie Stabilität, Ausbalanciertheit und die asymptotische Erhaltung. Insbesondere beobachten wir bei machen Verfahren, dass die Konvergenzordnung fast unabhängig von der Froude-Zahl ist.
Resumo:
Die vorliegende Arbeit untersucht die Struktur und Zusammensetzung der untersten Atmosphäre im Rahmen der PARADE-Messkampagne (PArticles and RAdicals: Diel observations of the impact of urban and biogenic Emissions) am Kleinen Feldberg in Deutschland im Spätsommer 2011. Dazu werden Messungen von meteorologischen Grundgrößen (Temperatur, Feuchte, Druck, Windgeschwindigkeit und -richtung) zusammen mit Radiosonden und flugzeuggetragenen Messungen von Spurengasen (Kohlenstoffmonoxid, -dioxid, Ozon und Partikelanzahlkonzentrationen) ausgewertet. Ziel ist es, mit diesen Daten, die thermodynamischen und dynamischen Eigenschaften und deren Einfluss auf die chemische Luftmassenzusammensetzung in der planetaren Grenzschicht zu bestimmen. Dazu werden die Radiosonden und Flugzeugmessungen mit Lagrangeschen Methoden kombiniert und es wird zwischen rein kinematischen Modellen (LAGRANTO und FLEXTRA) sowie sogenannten Partikeldispersionsmodellen (FLEXPART) unterschieden. Zum ersten Mal wurde im Rahmen dieser Arbeit dabei auch eine Version von FLEXPART-COSMO verwendet, die von den meteorologischen Analysefeldern des Deutschen Wetterdienstes angetrieben werden. Aus verschiedenen bekannten Methoden der Grenzschichthöhenbestimmung mit Radiosondenmessungen wird die Bulk-Richardson-Zahl-Methode als Referenzmethode verwendet, da sie eine etablierte Methode sowohl für Messungen und als auch Modellanalysen darstellt. Mit einer Toleranz von 125 m, kann zu 95 % mit mindestens drei anderen Methoden eine Übereinstimmung zu der ermittelten Grenzschichthöhe festgestellt werden, was die Qualität der Grenzschichthöhe bestätigt. Die Grenzschichthöhe variiert während der Messkampagne zwischen 0 und 2000 m über Grund, wobei eine hohe Grenzschicht nach dem Durchzug von Kaltfronten beobachtet wird, hingegen eine niedrige Grenzschicht unter Hochdruckeinfluss und damit verbundener Subsidenz bei windarmen Bedingungen im Warmsektor. Ein Vergleich zwischen den Grenzschichthöhen aus Radiosonden und aus Modellen (COSMO-DE, COSMO-EU, COSMO-7) zeigt nur geringe Unterschiede um -6 bis +12% während der Kampagne am Kleinen Feldberg. Es kann allerdings gezeigt werden, dass in größeren Simulationsgebieten systematische Unterschiede zwischen den Modellen (COSMO-7 und COSMO-EU) auftreten. Im Rahmen dieser Arbeit wird deutlich, dass die Bodenfeuchte, die in diesen beiden Modellen unterschiedlich initialisiert wird, zu verschiedenen Grenzschichthöhen führt. Die Folge sind systematische Unterschiede in der Luftmassenherkunft und insbesondere der Emissionssensitivität. Des Weiteren kann lokale Mischung zwischen der Grenzschicht und der freien Troposphäre bestimmt werden. Dies zeigt sich in der zeitlichen Änderung der Korrelationen zwischen CO2 und O3 aus den Flugzeugmessungen, und wird im Vergleich mit Rückwärtstrajektorien und Radiosondenprofilen bestärkt. Das Einmischen der Luftmassen in die Grenzschicht beeinflusst dabei die chemische Zusammensetzung in der Vertikalen und wahrscheinlich auch am Boden. Diese experimentelle Studie bestätigt die Relevanz der Einmischungsprozesse aus der freien Troposphäre und die Verwendbarkeit der Korrelationsmethode, um Austausch- und Einmischungsprozesse an dieser Grenzfläche zu bestimmen.
Resumo:
Der zunehmende Anteil von Strom aus erneuerbaren Energiequellen erfordert ein dynamisches Konzept, um Spitzenlastzeiten und Versorgungslücken aus der Wind- und Solarenergie ausgleichen zu können. Biogasanlagen können aufgrund ihrer hohen energetischen Verfügbarkeit und der Speicherbarkeit von Biogas eine flexible Energiebereitstellung ermöglichen und darüber hinaus über ein „Power-to-Gas“-Verfahren bei einem kurzzeitigen Überschuss von Strom eine Überlastung des Stromnetzes verhindern. Ein nachfrageorientierter Betrieb von Biogasanlagen stellt jedoch hohe Anforderungen an die Mikrobiologie im Reaktor, die sich an die häufig wechselnden Prozessbedingungen wie der Raumbelastung im Reaktor anpassen muss. Eine Überwachung des Fermentationsprozesses in Echtzeit ist daher unabdingbar, um Störungen in den mikrobiellen Gärungswegen frühzeitig erkennen und adäquat entgegenwirken zu können. rnBisherige mikrobielle Populationsanalysen beschränken sich auf aufwendige, molekularbiologische Untersuchungen des Gärsubstrates, deren Ergebnisse dem Betreiber daher nur zeitversetzt zur Verfügung stehen. Im Rahmen dieser Arbeit wurde erstmalig ein Laser-Absorptionsspektrometer zur kontinuierlichen Messung der Kohlenstoff-Isotopenverhältnisse des Methans an einer Forschungsbiogasanlage erprobt. Dabei konnten, in Abhängigkeit der Raumbelastung und Prozessbedingungen variierende Isotopenverhältnisse gemessen werden. Anhand von Isolaten aus dem untersuchten Reaktor konnte zunächst gezeigt werden, dass für jeden Methanogenesepfad (hydrogeno-troph, aceto¬klastisch sowie methylotroph) eine charakteristische, natürliche Isotopensignatur im Biogas nachgewiesen werden kann, sodass eine Identifizierung der aktuell dominierenden methanogenen Reaktionen anhand der Isotopen-verhältnisse im Biogas möglich ist. rnDurch den Einsatz von 13C- und 2H-isotopen¬markierten Substraten in Rein- und Mischkulturen und Batchreaktoren, sowie HPLC- und GC-Unter¬suchungen der Stoffwechselprodukte konnten einige bislang unbekannte C-Flüsse in Bioreaktoren festgestellt werden, die sich wiederum auf die gemessenen Isotopenverhältnisse im Biogas auswirken können. So konnte die Entstehung von Methanol sowie dessen mikrobieller Abbauprodukte bis zur finalen CH4-Bildung anhand von fünf Isolaten erstmalig in einer landwirtschaftlichen Biogasanlage rekonstruiert und das Vorkommen methylotropher Methanogenesewege nachgewiesen werden. Mithilfe molekularbiologischer Methoden wurden darüber hinaus methanoxidierende Bakterien zahlreicher, unbekannter Arten im Reaktor detektiert, deren Vorkommen aufgrund des geringen O2-Gehaltes in Biogasanlagen bislang nicht erwartet wurde. rnDurch die Konstruktion eines synthetischen DNA-Stranges mit den Bindesequenzen für elf spezifische Primerpaare konnte eine neue Methode etabliert werden, anhand derer eine Vielzahl mikrobieller Zielorganismen durch die Verwendung eines einheitlichen Kopienstandards in einer real-time PCR quantifiziert werden können. Eine über 70 Tage durchgeführte, wöchentliche qPCR-Analyse von Fermenterproben zeigte, dass die Isotopenverhältnisse im Biogas signifikant von der Zusammensetzung der Reaktormikrobiota beeinflusst sind. Neben den aktuell dominierenden Methanogenesewegen war es auch möglich, einige bakterielle Reaktionen wie eine syntrophe Acetatoxidation, Acetogenese oder Sulfatreduktion anhand der δ13C (CH4)-Werte zu identifizieren, sodass das hohe Potential einer kontinuierlichen Isotopenmessung zur Prozessanalytik in Biogasanlagen aufgezeigt werden konnte.rn
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn
Resumo:
Background The goal when resuscitating trauma patients is to achieve adequate tissue perfusion. One parameter of tissue perfusion is tissue oxygen saturation (StO2), as measured by near infrared spectroscopy. Using a commercially available device, we investigated whether clinically relevant blood loss of 500 ml in healthy volunteers can be detected by changes in StO2 after a standardized ischemic event. Methods We performed occlusion of the brachial artery for 3 minutes in 20 healthy female blood donors before and after blood donation. StO2 and total oxygenated tissue hemoglobin (O2Hb) were measured continuously at the thenar eminence. 10 healthy volunteers were assessed in the same way, to examine whether repeated vascular occlusion without blood donation exhibits time dependent effects. Results Blood donation caused a substantial decrease in systolic blood pressure, but did not affect resting StO2 and O2Hb values. No changes were measured in the blood donor group in the reaction to the vascular occlusion test, but in the control group there was an increase in the O2Hb rate of recovery during the reperfusion phase. Conclusion StO2 measured at the thenar eminence seems to be insensitive to blood loss of 500 ml in this setting. Probably blood loss greater than this might lead to detectable changes guiding the treating physician. The exact cut off for detectable changes and the time effect on repeated vascular occlusion tests should be explored further. Until now no such data exist.
Resumo:
Renal transplantation has become an established option for renal replacement therapy in many patients with end stage renal disease. Living donation is a possibility for timely transplantation, hampered in 20 % of all possible donors and recipients byincompatible blood groups. AB0-incompatible renal transplantation overcomes this hurdle with acceptable allograft survival compared to conventional living-donor renal transplantation. During the last 10 years, the number of patients awaiting renal transplantation older than 65 years has nearly doubled. The decision to transplant those patients and their medical treatment is a growing challenge in transplantation. On the other hand donor age is increasing with potential negative consequences for long-term outcome of organ function. Antibody-mediated humoral rejection have been identified lately as an important cause for allograft failure during long-term follow up of renal transplant patients. New immunological methods to detect donor-specific antibodies, like solid-phase assays (Luminex®), have increased the knowledge and understanding of humoral rejection processes. This will lead hopefully to modified immunosuppressive strategies to minimize organ failure due to chronic rejection.
Resumo:
Als eines der erstaunlichsten Merkmale des algerisch-französischen Unabhängigkeitskriegs 1954-1962 darf die Kombination von militärischer Aufstandsbekämpfung und zivilen Reformprojekten gelten. Diese Verschränkung lässt sich an keinem Aspekt dieses Krieges so deutlich beobachten wie an der französischen Umsiedlungspolitik. Bis zu drei Millionen Menschen wurden während des Krieges von der französischen Armee gewaltsam aus ihren Dörfern vertreiben und in eigens angelegte Sammellager, die «camps de regroupement», umgesiedelt. Was als rein militärische Maßnahme begann, entwickelte sich schnell zu einem gewaltigen ländlichen Entwicklungsprogramm. Durch das Versprechen einer umfassenden Modernisierung aller Lebensbereiche im Schnellverfahren sollten die Insassen der Lager zu loyalen Anhängern des Projekts eines französischen Algeriens gemacht werden. Die «camps de regroupement» lassen sich als Modernisierungslaboratorien beschreiben, in denen sich scheinbar widersprüchliche Elemente wie Entwicklungshilfe mit äußerst rigider Bevölkerungskontrolle und totalitär anmutenden Maßnahmen des social engineering zu einem einzigartigen Ensemble verbanden. [ABSTRACT FROM AUTHOR]
Resumo:
Incorporation of enediynes into anticancer drugs remains an intriguing yet elusive strategy for the design of therapeutically active agents. Density functional theory was used to locate reactants, products, and transition states along the Bergman cyclization pathways connecting enediynes to reactive para-biradicals. Sum method correction to low-level calculations confirmed B3LYP/6-31G(d,p) as the method of choice in investigating enediynes. Herein described as MI:Sum, calculated reaction enthalpies differed from experiment by an average of 2.1 kcal·mol−1 (mean unsigned error). A combination of strain energy released across the reaction coordinate and the critical intramolecular distance between reacting diynes explains reactivity differences. Where experimental and calculated barrier heights are in disagreement, higher level multireference treatment of the enediynes confirms lower level estimates. Previous work concerning the chemically reactive fragment of esperamcin, MTC, is expanded to our model system MTC2.
Resumo:
SUMMARY: BACKGROUND: Recruitment of platelets (PLT) during donor PLT apheresis may facilitate the harvest of multiple units within a single donation. METHODS: We compared two PLT apheresis procedures (Amicus and Trima Accel) in a prospective, randomized, paired cross-over study in 60 donors. The 120 donations were compared for depletion of circulating PLT in the donors, PLT yields and PLT recruitment. A recruitment was defined as ratio of total PLT yield and donor PLT depletion > 1. RESULTS: Despite comparable differences of pre- and post-apheresis PLT counts (87 × 10(9)/l in Trima Accel vs. 92 × 10(9)/l in Amicus, p = 0.383), PLT yields were higher with Trima Accel (7.48 × 10(11) vs. 6.06 × 10(11), p < 0.001), corresponding to a higher PLT recruitment (1.90 vs. 1.42, p < 0.001). We observed a different increase of WBC counts after aphereses, which was more pronounced with Trima Accel than with Amicus (1.30 × 10(9)/l vs. 0.46 × 10(9)/l, p < 0.001). CONCLUSION: Both procedures induced PLT recruitment. This was higher in Trima Accel, contributing to a higher yield in spite of a comparable depletion of circulating PLT in the donors. This recruitment facilitates the harvest of multiple units within a single donation and seems to be influenced by the procedure utilized. The different increases of circulating donor white blood cells after donation need further investigation.
Resumo:
OBJECTIVES: Donation after circulatory declaration of death (DCDD) could significantly improve the number of cardiac grafts for transplantation. Graft evaluation is particularly important in the setting of DCDD given that conditions of cardio-circulatory arrest and warm ischaemia differ, leading to variable tissue injury. The aim of this study was to identify, at the time of heart procurement, means to predict contractile recovery following cardioplegic storage and reperfusion using an isolated rat heart model. Identification of reliable approaches to evaluate cardiac grafts is key in the development of protocols for heart transplantation with DCDD. METHODS: Hearts isolated from anaesthetized male Wistar rats (n = 34) were exposed to various perfusion protocols. To simulate DCDD conditions, rats were exsanguinated and maintained at 37°C for 15-25 min (warm ischaemia). Isolated hearts were perfused with modified Krebs-Henseleit buffer for 10 min (unloaded), arrested with cardioplegia, stored for 3 h at 4°C and then reperfused for 120 min (unloaded for 60 min, then loaded for 60 min). Left ventricular (LV) function was assessed using an intraventricular micro-tip pressure catheter. Statistical significance was determined using the non-parametric Spearman rho correlation analysis. RESULTS: After 120 min of reperfusion, recovery of LV work measured as developed pressure (DP)-heart rate (HR) product ranged from 0 to 15 ± 6.1 mmHg beats min(-1) 10(-3) following warm ischaemia of 15-25 min. Several haemodynamic parameters measured during early, unloaded perfusion at the time of heart procurement, including HR and the peak systolic pressure-HR product, correlated significantly with contractile recovery after cardioplegic storage and 120 min of reperfusion (P < 0.001). Coronary flow, oxygen consumption and lactate dehydrogenase release also correlated significantly with contractile recovery following cardioplegic storage and 120 min of reperfusion (P < 0.05). CONCLUSIONS: Haemodynamic and biochemical parameters measured at the time of organ procurement could serve as predictive indicators of contractile recovery. We believe that evaluation of graft suitability is feasible prior to transplantation with DCDD, and may, consequently, increase donor heart availability.
Resumo:
Despite the introduction of new immunosuppressive agents, a steady decline of functioning renal allografts after living donation is observed. Thus nonpharmacological strategies to prevent graft loss have to be reconsidered, including donor-specific transfusions (DST). We introduced a cyclosporine-based DST protocol for renal allograft recipients from living-related/unrelated donation. From 1993 to 2003, 200 ml of whole blood, or the respective mononuclear cells from the potential living donor were administered twice to all of our 61 recipient candidates. The transplanted subjects were compared with three groups of patients without DST from the Collaborative Transplant Study (Heidelberg, Germany) during a 6-year period. Six patients were sensitized without delay for a subsequent cadaveric kidney. DST patients had less often treatment for rejection and graft survival was superior compared with subjects from the other Swiss transplant centers (n = 513) or from Western Europe (n = 7024). To diminish the probability that superior results reflect patient selection rather than effects of DST, a 'matched-pair' analysis controlling for relevant factors of transplant outcome was performed. Again, this analysis indicated that recipients with DST had better outcome. Thus, our observation suggests that DST improve the outcome of living kidney transplants even when modern immunosuppressive drugs are prescribed.