934 resultados para 2003-10-BS


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ein Luft-Erdwärmetauscher (L-EWT) kommt wegen seines niedrigen Energiebedarfs und möglicher guter Aufwandszahlen als umweltfreundliche Versorgungskomponente für Gebäude in Betracht. Dabei ist besonders vorteilhaft, dass ein L-EWT die Umgebungsluft je nach Jahreszeit vorwärmen oder auch kühlen kann. Dem zufolge sind L-EWT zur Energieeinsparung nicht nur für den Wohnhausbau interessant, sondern auch dort, wo immer noch große Mengen an fossiler Energie für die Raumkühlung benötigt werden, im Büro- und Produktionsgebäudesektor. Der Einsatzbereich eines L-EWT liegt zwischen Volumenströmen von 100 m3/h und mehreren 100.000 m3/h. Aus dieser Bandbreite und den instationären Randbedingungen entstehen erhebliche Schwierigkeiten, allgemeingültige Aussagen über das zu erwartende thermische Systemverhalten aus der Vielzahl möglicher Konstruktionsvarianten zu treffen. Hauptziel dieser Arbeit ist es, auf Basis umfangreicher, mehrjähriger Messungen an einer eigens konzipierten Testanlage und eines speziell angepassten numerischen Rechenmodells, Kennzahlen zu entwickeln, die es ermöglichen, die Betriebseigenschaften eines L-EWT im Planungsalltag zu bestimmen und ein technisch, ökologisch wie ökonomisch effizientes System zu identifizieren. Es werden die Kennzahlen elewt (Aufwandszahl), QV (Netto-Volumenleistung), ME (Meterertrag), sowie die Kombination aus v (Strömungsgeschwindigkeit) und VL (Metervolumenstrom) definiert, die zu wichtigen Informationen führen, mit denen die Qualität von Systemvarianten in der Planungsphase bewertet werden können. Weiterführende Erkenntnisse über die genauere Abschätzung von Bodenkennwerten werden dargestellt. Die hygienische Situation der durch den L-EWT transportierten Luft wird für die warme Jahreszeit, aufgrund auftretender Tauwasserbildung, beschrieben. Aus diesem Grund werden alle relevanten lufthygienischen Parameter in mehreren aufwendigen Messkampagnen erfasst und auf pathogene Wirkungen überprüft. Es wird über Sensitivitätsanalysen gezeigt, welche Fehler bei Annahme falscher Randbedingungen eintreten. Weiterhin werden in dieser Arbeit wesentliche, grundsätzliche Erkenntnisse aufbereitet, die sich aus der Betriebsbeobachtung und der Auswertung der umfangreich vorliegenden Messdaten mehrerer Anlagen ergeben haben und für die praktische Umsetzung und die Betriebsführung bedeutend sind. Hinweise zu Materialeigenschaften und zur Systemwirtschaftlichkeit sind detailliert aufgeführt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ähnlich wie in Säugerzellen ist das neutrale Postlysosom in Dictyostelium discoideum von einem Coat aus filamentösem Actin umgeben. In dieser Arbeit wurde der Frage nach der Funktion dieses Actin-Cytoskeletts am späten Endosom nachgegangen. Hierzu wurde zunächst eine Analyse der Domänen des Vacuolin B durchgeführt, das als bisher spätester bekannter Marker im Endocytoseweg in Dictyostelium discoideum das neutrale, postlysosomale Kompartiment dekoriert. In einer Yeast Two Hybrid-Analyse wurden die Bereiche des Vacuolin B identifiziert, die für eine Selbst-Interaktion des Proteins notwendig und ausreichend sind. Es handelt sich dabei um die coiled-coil-Domäne und einen daran anschließenden, 18 Aminosäuren langen, alpha-helicalen Abschnitt. Diesem helicalen Bereich scheint die Funktion einer modifizierenden, die coiled-coil-Ausbildung vermittelnden oder initiierenden Faltungseinheit zuzukommen. Sie weist jedoch nicht die typischen Merkmale einer trigger-Helix auf. Lokalisationsuntersuchungen mit GFP-Deletionskonstrukten zeigten, dass es einen Zusammenhang zwischen Interaktionsfähigkeit und Bindung des Vacuolin an die Oberfläche später Endosomen gibt: Eine korrekte Lokalisation und Membranassoziation waren nur dann zu beobachten, wenn in der Yeast Two Hybrid-Analyse eine Interaktion nachgewiesen werden konnte. Es wurden die für die Lokalisation und Assoziation mit der vacuolären Membran notwendigen Sequenzbereiche identifiziert; diese waren jedoch nicht hinreichend. Vermutlich sind hierfür auch Sequenzen des N-Terminus notwendig. Die erhobenen Daten legen weiterhin eine Bedeutung der hydrophoben Domäne des Vacuolin B für die korrekte Faltung des Proteins nahe. Im Anschluss an die Domänenanalyse wurde Vacuolin dazu benutzt, durch Herstellung von Hybridproteinen Actin-interagierende Proteine gezielt an das späte Endosom zu transportieren. Es wurde deren Einfluss auf den lokalen Actin Coat und den endocytotischen Transit untersucht. Zwei Actin-bindende Proteine mit depolymerisierender Wirkung konnten im Rahmen dieser Arbeit getestet werden, nämlich Severin und Cofilin. Die Schwächung des lokalen Actin Coats durch das Vorhandensein von Severin an der späten Vacuole war nicht eindeutig festzustellen. Severin am Postlysosom führte nicht zu einer Veränderung der Transitkinetik von Flüssigphasenmarker. Allerdings konnte ein Defekt in der Phagocytose festgestellt werden. Es könnte hierbei ein Zusammenhang zwischen der Mobilisierung von intrazellulärem Calcium während der Partikelaufnahme und der Calcium-abhängigen Regulation der Severin-Aktivität bestehen. Das Hybridprotein aus Vacuolin und Cofilin zeigte neben einer Assoziation mit der vacuolären Membran auch eine Lokalisation im Cytoplasma und Cortex der Zellen. Mit der Lokalisation im Cytoplasma und Cortex korrelierte eine Veränderung der endocytotischen Aktivität. Das Vacuolin-Cofilin-Fusionsprotein am Postlysosom rief einen Verlust des lokalen Actin Coats hervor. Dies führte zu einer traubenförmigen Assoziation der späten Endosomen; exocytotische Parameter blieben jedoch unbeeinflusst. Aufgrund der hier erhobenen Daten kann vermutet werden, dass der Actin Coat am Postlysosom dazu dient, eine Agglutination dieser Endosomen zu inhibieren. Dies könnte ein Schutzmechanismus zum Ausschluss von Docking- und Fusionsereignissen sein.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ein neuartiges, mehrstufiges Syntheseverfahren wurde zur Darstellung von unterschiedlichen Stärkederivaten (Ether und Ester) entwickelt, die hinsichtlich ihres Eigenschaftsprofils und ihrer Reinheit für die klinische Anwendung als Blutvolumenersatzmittel geeignet sind. Die Synthesen wurden dahingehend gestaltet, dass Produkte mit einer hohen Regioselektivität resultierten. Dabei konnten sämtliche Reaktionsschritte, die zur Modifikation der ursprünglich eingesetzten Wachsmais- und Kartoffelstärken notwendig waren, in einem homogenen, wäss-rigen System ohne zwischenzeitliche Aufarbeitung in einem Eintopfverfahren durchgeführt werden. Die auf diese Weise bevorzugt synthetisierten Carboxymethylstärken wurden mit NMR-spektroskopischen Methoden und GPC-MALLS strukturell eingehend charakterisiert. Mit eigens entwickelten Enzym-Assays konnten essentielle Informationen über die physiolo-gische Wirksamkeit der verschiedenen Stärkederivate in vitro gewonnen werden. Die Ergebnisse konnten mit Untersuchungen an Humanblut verifiziert werden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit war, die Einflüsse von Wurzeln und Rhizodeposition auf den Umsatz von Körnerleguminosenresiduen und damit verknüpfte mikrobielle Prozesse zu untersuchen. In einem integrierten Versuch wurden Ackerbohne (Vicia faba L.), Erbse (Pisum sativum L.) und Weiße Lupine (Lupinus albus L.) untersucht. Der Versuch bestand aus drei Teilen, zwei Gefäß-Experimenten und einem Inkubationsexperiment, in denen ausgehend von einem Gefäß-Experiment derselbe Boden und dasselbe Pflanzenmaterial verwendet wurden. In Experiment I wurde die Stickstoff-Rhizodeposition der Körnerleguminosenarten, definiert als wurzelbürtiger N nach dem Entfernen aller sichtbaren Wurzeln im Boden, gemessen und der Verbleib des Rhizodepositions-N in verschiednenen Bodenpools untersucht. Dazu wurden die Leguminosen in einem Gefäßversuch unter Verwendung einer in situ 15N-Docht-Methode mit einer 15N Harnstofflösung pulsmarkiert. In Experiment II wurde der Umsatz der N-Rhizodeposition der Körnerleguminosen und der Einfluss der Rhizodeposition auf den anschließenden C- und N-Umsatz der Körnerleguminosenresiduen in einem Inkubationsexperiment untersucht. In Experiment III wurde der N-Transfer aus den Körnerleguminosenresiduen einschließlich N-Rhizodeposition in die mikrobielle Biomasse und die Folgefrüchte Weizen (Triticum aestivum L.) und Raps (Brassica napus L.) in einem Gewächshaus-Gefäßversuch ermittelt. Die in situ 15N Docht-Markierungs-Methode wies hohe 15N Wiederfindungsraten von ungefähr 84 Prozent für alle drei Leguminosenarten auf und zeigte eine vergleichsweise homogene 15N Verteilung zwischen verschiedenen Pflanzenteilen zur Reife. Die Wurzeln zeigten deutliche Effekte auf die N-Dynamik nach dem Anbau von Körnerleguminosen. Die Effekte konnten auf die N-Rhizodeposition und deren anschließenden Umsatz, Einflüsse der Rhizodeposition von Körnerleguminosen auf den anschließenden Umsatz ihrer Residuen (Stängel, Blätter, erfassbare Wurzeln) und die Wirkungen nachfolgender Nichtleguminosen auf den Umsatzprozess der Residuen zurückgeführt werden: Die N-Rhizodeposition betrug zur Reife der Pflanzen bezogen auf die Gesamt-N- Aufnahme 13 Prozent bei Ackerbohne und Erbse und 16 Prozent bei Weißer Lupine. Bezogen auf den Residual N nach Ernte der Körner erhöhte sich der relative Anteil auf 35 - 44 Prozent. Die N-Rhizodeposition ist daher ein wesentlicher Pool für die N-Bilanz von Körnerleguminosen und trägt wesentlich zur Erklärung positiver Fruchtfolgeeffekte nach Körnerleguminosen bei. 7 - 21 Prozent des Rhizodepositions-N wurden als Feinwurzeln nach Nasssiebung (200 µm) wiedergefunden. Nur 14 - 18 Prozent des Rhizodepositions-N wurde in der mikrobiellen Biomasse und ein sehr kleiner Anteil von 3 - 7 Prozent in der mineralischen N Fraktion gefunden. 48 bis 72 Prozent der N-Rhizodeposition konnte in keinem der untersuchten Pools nachgewiesen werden. Dieser Teil dürfte als mikrobielle Residualmasse immobilisiert worden sein. Nach 168 Tagen Inkubation wurden 21 bis 27 Prozent des Rhizodepositions-N in den mineralisiert. Der mineralisierte N stammte im wesentlichen aus zwei Pools: Zwischen 30 Prozent und 55 Prozent wurde aus der mikrobiellen Residualmasse mineralisiert und eine kleinere Menge stammte aus der mikrobielle Biomasse. Der Einfluss der Rhizodeposition auf den Umsatz der Residuen war indifferent. Durch Rhizodeposition wurde die C Mineralisierung der Leguminosenresiduen nur in der Lupinenvariante erhöht, wobei der mikrobielle N und die Bildung von mikrobieller Residualmasse aus den Leguminosenresiduen in allen Varianten durch Rhizodepositionseinflüsse erhöht waren. Das Potential des residualen Körnerleguminosen-N für die N Ernährung von Folgefrüchten war gering. Nur 8 - 12 Prozent des residualen N wurden in den Folgenfrüchten Weizen und Raps wiedergefunden. Durch die Berücksichtigung des Rhizodepositions-N war der relative Anteil des Residual-N bezogen auf die Gesamt-N-Aufnahme der Folgefrucht hoch und betrug zwischen 18 und 46 Prozent. Dies lässt auf einen höheren N-Beitrag der Körnerleguminosen schließen als bisher angenommen wurde. Die residuale N-Aufnahme von Weizen von der Blüte bis zur Reife wurde durch den Residual-N gespeist, der zur Blüte in der mikrobiellen Biomasse immobilisiert worden war. Die gesamte Poolgröße, Residual-N in der mikrobiellen Biomasse und in Weizen, veränderte sich von der Blüte bis zur Reife nicht. Jedoch konnte ein Rest von 80 Prozent des Residual-N in keinem der untersuchten Pools nachgewiesen werden und dürfte als mikrobielle Residualmasse immobilisiert worden sein oder ist noch nicht abgebaut worden. Die zwei unterschiedlichen Folgefrüchte - Weizen und Raps - zeigten sehr ähnliche Muster bei der N-Aufnahme, der Residual-N Wiederfindung und bei mikrobiellen Parametern für die Residuen der drei Körnerleguminosenarten. Ein differenzierender Effekt auf den Umsatz der Residuen bzw. auf das Residual-N-Aneignungsvermögen der Folgefrüchte konnte nicht beobachtet werden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Supervision ist Beratung beruflichen Handelns. Zentrales Anliegen der Dissertation ist die Entwicklung der Arbeitswelt in der Moderne sowie die aktuellen Veränderungen näher zu beleuchten, um ihre Bedeutung für die Supervision zu eruieren. Vorab werden die Geschichte und Weiterentwicklung der Supervision mit ihren Spannungsfeldern skizziert. Der Hauptteil handelt von der Herausbildung und Durchsetzung der kapitalistischen Produktionsweise. Es wird dargelegt, was für ein vielschichtiger Prozess für den einzelnen und die Gesellschaft in Gang gesetzt wurde, um die moderne Wirtschaftsweise zu installieren und welche Unterstützung aus anderen Bereichen -Religion, Politik etc. - dazu von Nöten war. Darüber hinaus wird aufgezeigt, welche Konflikte von Anfang an vorhanden waren. Das Hauptaugenmerk richtet sich auf die Prämissen der modernen Arbeitswelt und die mögliche Inkompatibilität ihrer Anliegen: Gewinn und Gerechtigkeit, Konkurrenz und Kooperation, freier Markt und staatliche Regulation, Gleichheit und Spezialisierung, Individualität und Kollektivität. Konflikte und Verstrickungen, die sich daraus für den arbeitenden Menschen ergeben und somit Thema für die Supervision wurden, werden herausgearbeitet. In bezug auf Supervision wird dargestellt, welche Problematik der Wirtschaftsweise immanent ist und schwerlich durch Beratung aufgelöst werden kann. Eine bedeutsame Stellung nimmt die Arbeit als eine zentrale Kategorie der Ökonomie ein. Die Verflechtung von Arbeit und Ökonomie sowie der Entwicklungsverlauf von Arbeit werden skizziert: vom Fordismus zur Globalisierung. Beschrieben und erörtert werden die Konsequenzen für die aktuellen Arbeitsformen und -bedingungen durch die Produktivkraftentwicklung und die neuen Produktionskonzepte. Arbeit wird kritisch in ihrer Funktion für die kapitalistische Produktionsweise reflektiert, mit ihren Beeinträchtigungen für den tätigen Menschen. Das ambivalente Verhältnis von Mensch und Ökonomie wird als das signifikanteste Spannungsfeld für die Supervision betrachtet, verbunden mit der Herausforderung, Supervision nicht zu einer Beratungstechnologie zur Anpassung und Funktionalisierung des Menschen an die sich immer rascher verändernde Arbeitswelt zu zuschneiden.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We take stock of the present position of compositional data analysis, of what has been achieved in the last 20 years, and then make suggestions as to what may be sensible avenues of future research. We take an uncompromisingly applied mathematical view, that the challenge of solving practical problems should motivate our theoretical research; and that any new theory should be thoroughly investigated to see if it may provide answers to previously abandoned practical considerations. Indeed a main theme of this lecture will be to demonstrate this applied mathematical approach by a number of challenging examples

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper is a first draft of the principle of statistical modelling on coordinates. Several causes —which would be long to detail—have led to this situation close to the deadline for submitting papers to CODAWORK’03. The main of them is the fast development of the approach along the last months, which let appear previous drafts as obsolete. The present paper contains the essential parts of the state of the art of this approach from my point of view. I would like to acknowledge many clarifying discussions with the group of people working in this field in Girona, Barcelona, Carrick Castle, Firenze, Berlin, G¨ottingen, and Freiberg. They have given a lot of suggestions and ideas. Nevertheless, there might be still errors or unclear aspects which are exclusively my fault. I hope this contribution serves as a basis for further discussions and new developments

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The simplex, the sample space of compositional data, can be structured as a real Euclidean space. This fact allows to work with the coefficients with respect to an orthonormal basis. Over these coefficients we apply standard real analysis, inparticular, we define two different laws of probability trought the density function and we study their main properties

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Traditionally, compositional data has been identified with closed data, and the simplex has been considered as the natural sample space of this kind of data. In our opinion, the emphasis on the constrained nature of compositional data has contributed to mask its real nature. More crucial than the constraining property of compositional data is the scale-invariant property of this kind of data. Indeed, when we are considering only few parts of a full composition we are not working with constrained data but our data are still compositional. We believe that it is necessary to give a more precise definition of composition. This is the aim of this oral contribution

Relevância:

80.00% 80.00%

Publicador:

Resumo:

One of the tantalising remaining problems in compositional data analysis lies in how to deal with data sets in which there are components which are essential zeros. By an essential zero we mean a component which is truly zero, not something recorded as zero simply because the experimental design or the measuring instrument has not been sufficiently sensitive to detect a trace of the part. Such essential zeros occur in many compositional situations, such as household budget patterns, time budgets, palaeontological zonation studies, ecological abundance studies. Devices such as nonzero replacement and amalgamation are almost invariably ad hoc and unsuccessful in such situations. From consideration of such examples it seems sensible to build up a model in two stages, the first determining where the zeros will occur and the second how the unit available is distributed among the non-zero parts. In this paper we suggest two such models, an independent binomial conditional logistic normal model and a hierarchical dependent binomial conditional logistic normal model. The compositional data in such modelling consist of an incidence matrix and a conditional compositional matrix. Interesting statistical problems arise, such as the question of estimability of parameters, the nature of the computational process for the estimation of both the incidence and compositional parameters caused by the complexity of the subcompositional structure, the formation of meaningful hypotheses, and the devising of suitable testing methodology within a lattice of such essential zero-compositional hypotheses. The methodology is illustrated by application to both simulated and real compositional data

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This analysis was stimulated by the real data analysis problem of household expenditure data. The full dataset contains expenditure data for a sample of 1224 households. The expenditure is broken down at 2 hierarchical levels: 9 major levels (e.g. housing, food, utilities etc.) and 92 minor levels. There are also 5 factors and 5 covariates at the household level. Not surprisingly, there are a small number of zeros at the major level, but many zeros at the minor level. The question is how best to model the zeros. Clearly, models that try to add a small amount to the zero terms are not appropriate in general as at least some of the zeros are clearly structural, e.g. alcohol/tobacco for households that are teetotal. The key question then is how to build suitable conditional models. For example, is the sub-composition of spending excluding alcohol/tobacco similar for teetotal and non-teetotal households? In other words, we are looking for sub-compositional independence. Also, what determines whether a household is teetotal? Can we assume that it is independent of the composition? In general, whether teetotal will clearly depend on the household level variables, so we need to be able to model this dependence. The other tricky question is that with zeros on more than one component, we need to be able to model dependence and independence of zeros on the different components. Lastly, while some zeros are structural, others may not be, for example, for expenditure on durables, it may be chance as to whether a particular household spends money on durables within the sample period. This would clearly be distinguishable if we had longitudinal data, but may still be distinguishable by looking at the distribution, on the assumption that random zeros will usually be for situations where any non-zero expenditure is not small. While this analysis is based on around economic data, the ideas carry over to many other situations, including geological data, where minerals may be missing for structural reasons (similar to alcohol), or missing because they occur only in random regions which may be missed in a sample (similar to the durables)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As stated in Aitchison (1986), a proper study of relative variation in a compositional data set should be based on logratios, and dealing with logratios excludes dealing with zeros. Nevertheless, it is clear that zero observations might be present in real data sets, either because the corresponding part is completely absent –essential zeros– or because it is below detection limit –rounded zeros. Because the second kind of zeros is usually understood as “a trace too small to measure”, it seems reasonable to replace them by a suitable small value, and this has been the traditional approach. As stated, e.g. by Tauber (1999) and by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000), the principal problem in compositional data analysis is related to rounded zeros. One should be careful to use a replacement strategy that does not seriously distort the general structure of the data. In particular, the covariance structure of the involved parts –and thus the metric properties– should be preserved, as otherwise further analysis on subpopulations could be misleading. Following this point of view, a non-parametric imputation method is introduced in Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000). This method is analyzed in depth by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2003) where it is shown that the theoretical drawbacks of the additive zero replacement method proposed in Aitchison (1986) can be overcome using a new multiplicative approach on the non-zero parts of a composition. The new approach has reasonable properties from a compositional point of view. In particular, it is “natural” in the sense that it recovers the “true” composition if replacement values are identical to the missing values, and it is coherent with the basic operations on the simplex. This coherence implies that the covariance structure of subcompositions with no zeros is preserved. As a generalization of the multiplicative replacement, in the same paper a substitution method for missing values on compositional data sets is introduced

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Examples of compositional data. The simplex, a suitable sample space for compositional data and Aitchison's geometry. R, a free language and environment for statistical computing and graphics