198 resultados para Modellen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Increased anthropogenic loading of nitrogen (N) and phosphorus (P) has led to an eutrophication problem in the Baltic Sea, and the spring bloom is a key component in the biological uptake of increased nutrient concentrations. The spring bloom in the Baltic Sea is dominated by both diatoms and dinoflagellates. However, the sedimentation of these groups is different: diatoms tend to sink to the sea floor at the end of the bloom, while dinoflagellates to a large degree are been remineralized in the euphotic zone. Understanding phytoplankton competition and species specific ecological strategies is thus of importance for assessing indirect effects of phytoplankton community composition on eutrophication problems. The main objective of this thesis was to describe some basic physiological and ecological characteristics of the main cold-water diatoms and dinoflagellates in the Baltic Sea. This was achieved by specific studies of: (1) seasonal vertical positioning, (2) dinoflagellate life cycle, (3) mixotrophy, (4) primary production, respiration and growth and (5) diatom silicate uptake, using cultures of common cold-water diatoms: Chaetoceros wighamii, C. gracilis, Pauliella taeniata, Thalassiosira baltica, T. levanderi, Melosira arctica, Diatoma tenuis, Nitzschia frigida, and dinoflagellates: Peridiniella catenata, Woloszynskia halophila and Scrippsiella hangoei. The diatoms had higher primary production capacity and lower respiration rate compared with the dinoflagellates. This difference was reflected in the maximum growth rate, which for the examined diatoms range from 0.6 to 1.2 divisions d-1, compared with 0.2 to 0.3 divisions d-1 for the dinoflagellates. Among diatoms there were species specific differences in light utilization and uptake of silicate, and C. wighamii had the highest carbon assimilation capacity and maximum silicate uptake. The physiological properties of diatoms and dinoflagellates were used in a model of the onset of the spring bloom: for the diatoms the model could predict the initiation of the spring bloom; S. hangoei, on the other hand, could not compete successfully and did not obtain positive growth in the model. The other dinoflagellates did not have higher growth rates or carbon assimilation rates and would thus probably not perform better than S. hangoei in the model. The dinoflagellates do, however, have competitive advantages that were not included in the model: motility and mixotrophy. Previous investigations has revealed that the chain-forming P. catenata performs diurnal vertical migration (DVM), and the results presented here suggest that active positioning in the water column, in addition to DVM, is a key element in this species' life strategy. There was indication of mixotrophy in S. hangoei, as it produced and excreted the enzyme leucine aminopeptidase (LAP). Moreover, there was indirect evidence that W. halophila obtains carbon from other sources than photosynthesis when comparing increase in cell numbers with in situ carbon assimilation rates. The results indicate that mixotrophy is a part of the strategy of vernal dinoflagellates in the Baltic Sea. There were also indications that the seeding of the spring bloom is very important for the dinoflagellates to succeed. In mesocosm experiments dinoflagellates could not compete with diatoms when their initial numbers were low. In conclusion, this thesis has provided new information about the basic physiological and ecological properties of the main cold-water phytoplankton in the Baltic Sea. The main phytoplankton groups, diatoms and dinoflagellates, have different physiological properties, which clearly separate their life strategies. The information presented here could serve as further steps towards better prognostic models of the effects of eutrophication in the Baltic Sea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The continuous production of blood cells, a process termed hematopoiesis, is sustained throughout the lifetime of an individual by a relatively small population of cells known as hematopoietic stem cells (HSCs). HSCs are unique cells characterized by their ability to self-renew and give rise to all types of mature blood cells. Given their high proliferative potential, HSCs need to be tightly regulated on the cellular and molecular levels or could otherwise turn malignant. On the other hand, the tight regulatory control of HSC function also translates into difficulties in culturing and expanding HSCs in vitro. In fact, it is currently not possible to maintain or expand HSCs ex vivo without rapid loss of self-renewal. Increased knowledge of the unique features of important HSC niches and of key transcriptional regulatory programs that govern HSC behavior is thus needed. Additional insight in the mechanisms of stem cell formation could enable us to recapitulate the processes of HSC formation and self-renewal/expansion ex vivo with the ultimate goal of creating an unlimited supply of HSCs from e.g. human embryonic stem cells (hESCs) or induced pluripotent stem cells (iPS) to be used in therapy. We thus asked: How are hematopoietic stem cells formed and in what cellular niches does this happen (Papers I, II)? What are the molecular mechanisms that govern hematopoietic stem cell development and differentiation (Papers III, IV)? Importantly, we could show that placenta is a major fetal hematopoietic niche that harbors a large number of HSCs during midgestation (Paper I)(Gekas et al., 2005). In order to address whether the HSCs found in placenta were formed there we utilized the Runx1-LacZ knock-in and Ncx1 knockout mouse models (Paper II). Importantly, we could show that HSCs emerge de novo in the placental vasculature in the absence of circulation (Rhodes et al., 2008). Furthermore, we could identify defined microenvironmental niches within the placenta with distinct roles in hematopoiesis: the large vessels of the chorioallantoic mesenchyme serve as sites of HSC generation whereas the placental labyrinth is a niche supporting HSC expansion (Rhodes et al., 2008). Overall, these studies illustrate the importance of distinct milieus in the emergence and subsequent maturation of HSCs. To ensure proper function of HSCs several regulatory mechanisms are in place. The microenvironment in which HSCs reside provides soluble factors and cell-cell interactions. In the cell-nucleus, these cell-extrinsic cues are interpreted in the context of cell-intrinsic developmental programs which are governed by transcription factors. An essential transcription factor for initiation of hematopoiesis is Scl/Tal1 (stem cell leukemia gene/T-cell acute leukemia gene 1). Loss of Scl results in early embryonic death and total lack of all blood cells, yet deactivation of Scl in the adult does not affect HSC function (Mikkola et al., 2003b. In order to define the temporal window of Scl requirement during fetal hematopoietic development, we deactivated Scl in all hematopoietic lineages shortly after hematopoietic specification in the embryo . Interestingly, maturation, expansion and function of fetal HSCs was unaffected, and, as in the adult, red blood cell and platelet differentiation was impaired (Paper III)(Schlaeger et al., 2005). These findings highlight that, once specified, the hematopoietic fate is stable even in the absence of Scl and is maintained through mechanisms that are distinct from those required for the initial fate choice. As the critical downstream targets of Scl remain unknown, we sought to identify and characterize target genes of Scl (Paper IV). We could identify transcription factor Mef2C (myocyte enhancer factor 2 C) as a novel direct target gene of Scl specifically in the megakaryocyte lineage which largely explains the megakaryocyte defect observed in Scl deficient mice. In addition, we observed an Scl-independent requirement of Mef2C in the B-cell compartment, as loss of Mef2C leads to accelerated B-cell aging (Gekas et al. Submitted). Taken together, these studies identify key extracellular microenvironments and intracellular transcriptional regulators that dictate different stages of HSC development, from emergence to lineage choice to aging.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Den här avhandlingen erbjuder ett nytt perspektiv på marknadskommunikation. Det nya är ett starkt kundfokus, där kunden är en aktiv medpart i kommunikationsprocessen. I det traditionella kommunikationsperspektivet har man sett kunden som ett objekt som blir utsatt för företagets olika åtgärder. Där har det varit företaget som stått för integreringen av de olika budskapen. I det här arbetet står kunden för integrationen och har därmed möjligheten att lägga till budskap eller lämna bort någonting väsentligt. I och med perspektivskiftet kan man upptäcka nya fenomen i kommunikation som inte tidigare beaktats i tillräcklig utsträckning. Eftersom det är kunden som står för den aktiva konstruktionen av budskap, kan kundens uppfattning vara en annan än den som företagen avsett. Kundens uppfattning kan beskrivas med hjälp av begreppen tydlig, otydlig och tyst kommunikation. Inom ramen för tyst kommunikation utvecklas ett nytt begrepp – passiv kommunikation – som kan öppna möjligheter för företag att minska på den aktiva kommunikationen med sina kunder. Även källorna till den här kommunikationen kan variera. Dylika källor kan lokaliseras till relation, händelse eller konsekvens. Dessa fenomen har sammanställts i en modell som kallas relationskommunikationsarenan. Kundernas uppfattningar varierar beroende på om det är fråga om relationskommunikation eller annan kommunikation. Dessa uppfattningar är strukturerade i två olika dimensioner: en tids- och en kontextdimension. Tidsdimensionen består av historiska och framtidsrelaterade faktorer och kontextdimensionen är en situationsdimension som består av interna, personliga faktorer och av externa faktorer i omgivningen. I relations-kommunikation förekommer faktorer från alla dimensioner. Modellen för denna struktur kallas den dynamiska kommunikationsmodellen. I avhandlingen utvecklas även en metod – kommunikationstopografi – med vars hjälp olika uppfattningar kan visualiseras på ett åskådligt sätt. Med topografierna kan olika budskap som annonser analyseras och tydliga, otydliga samt tysta budskap separeras. På motsvarande sätt kan även olika grupper av personer som uppfattar budskap på ett visst sätt särskiljas. Både budskap och personer analyseras här. Förekomsten av relationskommunikation kan i en del fall påvisas. Med kommunikationstopografi kan man visa hur den aktiva kunden konstruerar, lägger till eller lämnar bort budskap.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Undersökningens problem gäller underordning. Syftet med undersökningen är att på basen av teori skapa en helhetssyn som man kan stödja sig på när val mellan underordning och icke-underordning görs i planering av organisationsregler. Problemställningen grundar sig på forskarens vardagserfarenheter av beslutsfattande i grupp. Om en av gruppens medlemmar kan underordna de andra har han en möjlighet att styra kommunikationen och på det sättet påverka den kunskap, som gruppen förfogar över då gemensamma beslut fattas. Bristfällig kunskap kan möjligen leda till, att man inte finner den lösning, som skulle vara bäst ur helhetens synvinkel. Underordning tillskrivs varierande betydelse i olika organisationer beroende på grupperingsprinciperna. I organisationer där medlemskapet i princip är ärvt, är en minimering av subordinationsförhållandena ett värde i sig medlemmarna emellan. Dylika organisationer är familjen och territoriellt bildade samhälleliga organisationer. Samhällets organisationsregler, sådana som de kan läsas och tolkas i statsförfattningsteori och i författningen, är föremål för granskning. Granskningen sker med hjälp av två idealtyper, som avbildar två ytterligheter, den ena ett samhälle, där underordningen är minimal, den andra ett samhälle, där underordningen är maximal. Den förstnämnda idealtypen benämns demokrati. Egenskaper som givits den är symmetriska relationer aktörerna emellan, dvs. kommunikationen är dubbelriktad och rollutbytet fritt. Den andra idealtypen benämns byråkrati. Den karakteriseras av osymmetriska relationer aktörerna emellan, dvs. kommunikationen är enkelriktad och mellan samhällsmedlemmarna finns en rollfördelning. Idealtypernas egenskaper vidareutvecklas genom deduktion. Som hjälpmedel i en sociologisk konstruktion används två- och treaktörsmodeller. Enhällighet och lösning av konflikter genom lottdragning är demokratiska beslutsregler. En byråkratisk regel är majoritetsbeslut. Enligt politologisk granskning är grundmodellen för reglerna i ett demokratiskt samhälle en överenskommelse om ett monogamt äktenskap. Grundmodellen för byråkrati är promiskuitet, ur vilken man inte kan härleda någon annan organisationsprincip för styrning av samhället än styrning genom maktgrupper. Den organisationsteoretiska utvecklingen sker genom en konstruktion av motsatta regler för en byråkratisk förvaltningsorganisation, nämligen regler för en debyråkratisk förvaltningsorganisation. I den systemteoretiska granskningen konstateras att författningen måste utarbetas med utgångspunkt i att samhället är ett slutet system i förhållande till omgivande samhällen. Utvecklandet av samhällelig organisationsteori sker med hjälp av deduktion, där man som hjälpmedel använder en fyraktörsmodell. Modellen avbildar att möte vid vilket två ordföranden, som kontrollerar varandra, och två medlemmar deltar. Med hjälp av modellen klassificeras de samhälleliga relationerna i tre olika dimensioner. Den vertikala dimensionen avbildar relationerna medborgare och statsorgan emellan. Av de horisontala dimensionerna avbildar den ena relationerna statsorganen emellan och den andra avbildar relationerna medborgare emellan. Med hjälp av teori analyseras antikens, liberalismens och socialismens samhällsstyre med tanke på symmetrin i styrningsprinciperna. Teorin kompletteras genom en definition av hierarkiska idealtyper: i den symmetriska idealtypen är medborgarnas deltagande i beslutsfattandet maximalt och i den osymmetriska minimalt. På basen av detta bildas idealtyper för en symmetrisk resp. osymmetrisk författning. Med hjälp av teori utförs en granskning av Finlands författning. I en analys av den historiska utveckling som Finlands författningsteori har genomgått konstateras att stamsamhällets styrning, som grundade sig på gemenskap, har övergått i en individualistisk, mekanisk styrning inom nationalstatens ramar där mat tyr sig till omröstningar och till representationsprincipen. Relationerna statsorganen emellan har utvecklats genom experimentering i många olika faser. Den territoriella organisationen har ägnats mindre uppmärksamhet. Som slutsats av analysen utvecklas en organisationsprincip för reglerad osymmetri. En analys av grundlagen pekar på möjligheter till dess demokratisering eller byråkratisering. På basen av en analys av grundlagsändringarna åren 1972 och 1981 kommer man enligt den metod som har använts i undersökningen till en slutsats om att dessa lagändringar innebär en byråkratisering. Möjligheter till demokratisering belyses med ett exempel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syftet med denna studie är att genom data-analys triangulation undersöka socionomstuderandes svar på ett yrkesetiskt dilemma av omsorgsetisk natur. Samplet består av 32 socionomer i början av sina studier som har svarat på ett hypotetiskt dilemma om hur de skulle bemöta en ung kvinna som ber om råd i en mycket svår situation. De huvudsakliga teoretiska utgångspunkterna för detta arbete är ECI (Ethic of Care Interview) som utvecklats av Eva Skoe som metod för att undersöka omsorgsetik, samt Osers och Althofs teori om diskursiva problemlösningsmetoder bland professionella. Som grundläggande teorier för all modern forskning om människans moralutveckling, presenteras också Carol Gilligans och Lawrence Kohlbergs teorier samt den huvudsakliga kritiken dessa bemött. Carol Gilligan är den som ursprungligen presenterade tanken om att det finns två olika typer av moraliskt tänkande där omsorgsetik är mer typisk för kvinnor och rättviseetik är mer typisk för män. Den första delen av analysen är en innehållsanalys där svaren på det yrkesrelaterade dilemmat på olika ECI stadium jämförs med varandra. Poängsättningen i ECI har varit grunden för denna analys. Den andra delen av analysen är en deduktiv teoribunden analys, där jag undersökt i fall Osers och Althofs modell om problemlösningsstrategier även går att tillämpa på ett yrkesetiskt dilemma. Slutligen tar jag också ställning till dessa två teoriers kompatibilitet. Resultatet visar att eleverna har svarat aningen sämre på det yrkesetiska dilemmat än vad deras allmänna ECI stadium är. Detta kan bero på att de är i början av sina studier men också på det allmänna klimat som råder inom socialbranschen. Teorin om diskursiva problemlösningsstrategier går inte heller att tillämpa på detta yrkesetiska dilemma, eftersom den hypotetiska klientens självbestämmanderätt gör en diskursiv lösning omöjlig. Till följd av detta har jag skapat en ny modell som baserar sig på 6 kategorier utgående från de faktorer de intervjuade lyfter fram som de viktigaste i den professionellas möte med klienten. Eftersom den nya modellen inte är hierarkisk, kan de två teorierna inte jämföras med varandra på så sätt att högre ECI nivå skulle innebära en viss typ av problemlösningsstrategi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Syftet med denna studie är att genom data-analys triangulation undersöka socionomstuderandes svar på ett yrkesetiskt dilemma av omsorgsetisk natur. Samplet består av 32 socionomer i början av sina studier som har svarat på ett hypotetiskt dilemma om hur de skulle bemöta en ung kvinna som ber om råd i en mycket svår situation. De huvudsakliga teoretiska utgångspunkterna för detta arbete är ECI (Ethic of Care Interview) som utvecklats av Eva Skoe som metod för att undersöka omsorgsetik, samt Osers och Althofs teori om diskursiva problemlösningsmetoder bland professionella. Som grundläggande teorier för all modern forskning om människans moralutveckling, presenteras också Carol Gilligans och Lawrence Kohlbergs teorier samt den huvudsakliga kritiken dessa bemött. Carol Gilligan är den som ursprungligen presenterade tanken om att det finns två olika typer av moraliskt tänkande där omsorgsetik är mer typisk för kvinnor och rättviseetik är mer typisk för män. Den första delen av analysen är en innehållsanalys där svaren på det yrkesrelaterade dilemmat på olika ECI stadium jämförs med varandra. Poängsättningen i ECI har varit grunden för denna analys. Den andra delen av analysen är en deduktiv teoribunden analys, där jag undersökt i fall Osers och Althofs modell om problemlösningsstrategier även går att tillämpa på ett yrkesetiskt dilemma. Slutligen tar jag också ställning till dessa två teoriers kompatibilitet. Resultatet visar att eleverna har svarat aningen sämre på det yrkesetiska dilemmat än vad deras allmänna ECI stadium är. Detta kan bero på att de är i början av sina studier men också på det allmänna klimat som råder inom socialbranschen. Teorin om diskursiva problemlösningsstrategier går inte heller att tillämpa på detta yrkesetiska dilemma, eftersom den hypotetiska klientens självbestämmanderätt gör en diskursiv lösning omöjlig. Till följd av detta har jag skapat en ny modell som baserar sig på 6 kategorier utgående från de faktorer de intervjuade lyfter fram som de viktigaste i den professionellas möte med klienten. Eftersom den nya modellen inte är hierarkisk, kan de två teorierna inte jämföras med varandra på så sätt att högre ECI nivå skulle innebära en viss typ av problemlösningsstrategi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Effektutvärdering inom företagandeutbildning är ett forskningsfält som karakteriseras av brist på modeller ifråga om utvärdering. De få och hittills existerande utvärderingsmodellerna verkar ha förbisett de pedagogiska variablerna såsom utbildningens innehåll och metoder. Därför har det varit problematiskt att beskriva företagandeutbildningen i högskolor och analysera hur företagandeutbildningen bidrar till studerandes inlärning och deras förmåga att utnyttja kunskapen i näringslivet. Avhandlingen som är en deduktiv studie granskar den tidigare forskningen på området och förespråkar en tvärvetenskaplig ansats vid mätning och presentation aveffekter inom företagandeutbildning. Den nya modellen, ROEE-modellen, bidrar till teoribildningen om lärandets ”vad” och lärandets ”hur” inom företagandeutbildningen. En av de första teorierna om inlärning (Herbart 1776-1841) och Kirkpatricks (1998) fyra-stegs modell för kursutvärdering byggs ut med en ny referensram baserad på examensutbildning inom företagande. En intressant aspekt metodmässigt utgör att försöksplanering och diagnostik inom medicinens område tillämpas på företagandeutbildningen. Avhandlingen visar att variabeln innehåll i företagandeutbildningen inom examensutbildning har en klar koppling till beteendet. Ett välavvägt innehåll kan utnyttjas i arbetslivet såväl av entreprenören som av intraprenören. Vid metodval i undervisningen visar den empiriska undersökningen att variation i metoder ger de positivaste upplevelserna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit, deren erster Teil in Heft 2 dieser Zeitschrift veröffentlicht wurde, werden die Kosten der “Schnittkäserei” am Beispiel der Herstellung von Gouda-Käse modellhaft bestimmt, wobei die vor 17 Jahren durchgeführten Modellkalkulationen für Edamerkäse hinsichtlich der Funktionsinhalte der Abteilung ausgedehnt und dem neuesten Stand der Technik sowie heutigen Schnittkäsereiproduktionsstrukturen angepaßt wurden. Zudem sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hinsichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.8001 Käse/Jahr bestimmt werden. Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt. Die zu tätigenden Investitionen für die Grundversion betragen 10,6 Mio. DM in Modell 1 und 40,3 Mio. DM in Modell 4. Bezogen auf die jeweilige Rohstoffeinsatzmenge ergeben sich hieraus spezifische Investitionen, die mit zunehmender Modellgröße erheblich sinken: Machen sie im Modell 1 noch 215,6 Tsd. DM/1 Mio. kg jährlicher Rohstoffeinsatzmenge aus, so verringern sie sich im Modell 4 auf 135,3 Tsd. DM/1 Mio. kg. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten des Produktes Gouda, die je nach Modellgröße und Beschäftigungsgrad zwischen 510,8 und 538,5 Pf/kg Käse liegen. Die Gesamtkosten der “Schnittkäserei”, die sich aus den Einzelkosten des Produktes Gouda und den Einzelkosten der Abteilung zusammensetzen, betragen 530,9 bis 654,3 Pf/kg Käse. Den größten Anteil an den Gesamtkosten haben die Rohstoffkosten (73 bis 90%). Der Anteil der Anlagekosten schwankt je nach Beschäftigung zwischen 4 und 18%, während die Personal- und sonstige Betriebskosten im Vergleich zu den beiden vorgenannten Kostenartengruppen in allen Modellen nur eine geringere Bedeutung haben. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die höchsten Kosten in der Unterabteilung Bruchbereitung und Pressen anfallen: Bei einer 100%igen Beschäftigung betragen sie z.B. in Modell 3 42% der Gesamtkosten (ohne Rohstoff). Die geringsten Kosten (2%) fallen dagegen in der Unterabteilung Versandkühlraum und Expedition an. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendegression deutlich höher ist als derjenige der Modellgröße.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen. Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.