982 resultados para ASYMPTOTIC BETHE-ANSATZ
Resumo:
Die Nutzung des Like-Buttons wurde bisher nur oberflächlich und vor allem auf den US-Raum begrenzt erforscht. Dabei lag der Fokus ausschließlich auf wirtschaftlich orientierten Unternehmen und dem monetären Wert, den ein Fan für dieses hat. In der vorliegenden Untersuchung wird eine erweiterte Perspektive gewählt. Aus Sicht deutschsprachiger Nutzer wird erforscht, welche Motive und Bedürfnisse eine Person dazu veranlassen, sich freiwillig per Gefällt-mir zu verknüpfen. Hierzu wird der Uses and Gratifications-Ansatz herangezogen. Es stehen nicht Unternehmen, sondern generell alle Formen von Organisationen im Fokus. Gleichzeitig wird untersucht, wie diese Beziehungen verlaufen: Welche Erwartungen stellen Fans? Welche Handlungen nehmen sie wie häufig vor und welchen Effekt hat eine Fanbeziehung auf die Einstellung eines Nutzers gegenüber einer Organisation? Die Motive hinter der Nutzung des Gefällt mir-Buttons sind umfangreicher, als es bisherige Forschung vermuten ließ. Fans wollen informiert werden, sie wollen ihr Gefallen schnell und einfach bekunden und sich durch die Verknüpfung selbst darstellen. Weniger wichtig, aber dennoch von Relevanz sind die Motive der Partizipation und Unterstützung, der Empfehlung, der Vorteilssuche, der Unterhaltung sowie der Netzwerkerweiterung und Gruppenzugehörigkeit. Die Verwendung des Like-Buttons dient somit der Befriedigung einer ganzen Reihe von Nutzungsbedürfnissen. Der Verlauf der Beziehungen zwischen Organisationen und Usern ist eher von Passivität geprägt. Fans wollen zwar informiert werden und stellen konkrete Ansprüche an die Art und Form von Organisationsmeldungen, sie wollen aber nur selten wirklich direkt mit einem Unternehmen, einem Verein o.ä. interagieren. Langweilen die Meldungen einer Organisation, werden zu viele oder nicht relevante Informationen an die Fans weitergeben, zögern diese nicht, eine Verknüpfung zu beenden. Ein Effekt der Fanschaft auf die Einstellung von Nutzern gegenüber der jeweiligen Organisation konnte nur bedingt festgestellt werden. Letztere zieht einen Gewinn nicht aus einer erhöhten Ausgabebereitschaft seiner Fans, sondern aus deren stärkerer Aufmerksamkeit gegenüber Organisationsmeldungen.
Resumo:
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Resumo:
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Resumo:
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Resumo:
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen. Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.
Resumo:
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Resumo:
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Resumo:
In light of heightened interest in the response of pollen phenology to temperature, we investigated recent changes to the onset of Betula (birch) pollen seasons in central and southern England, including a test of predicted advancement of the Betula pollen season for London. We calculated onset of birch pollen seasons using daily airborne pollen data obtained at London, Plymouth and Worcester, determined trends in the start of the pollen season and compared timing of the birch pollen season with observed temperature patterns for the period 1995–2010. We found no overall change in the onset of birch pollen in the study period although there was evidence that the response to temperature was nonlinear and that a lower asymptotic start of the pollen season may exist. The start of the birch pollen season was strongly correlated with March mean temperature. These results reinforce previous findings showing that the timing of the birch pollen season in the UK is particularly sensitive to spring temperatures. The climate relationship shown here persists over both longer decadal-scale trends and shorter, seasonal trends as well as during periods of ‘sign-switching’ when cooler spring temperatures result in later start dates. These attributes, combined with the wide geographical coverage of airborne pollen monitoring sites, some with records extending back several decades, provide a powerful tool for the detection of climate change impacts, although local site factors and the requirement for winter chilling may be confounding factors.
Resumo:
Thesis (Ph.D.)--University of Washington, 2013
Resumo:
Recent developments of high-end processors recognize temperature monitoring and tuning as one of the main challenges towards achieving higher performance given the growing power and temperature constraints. To address this challenge, one needs both suitable thermal energy abstraction and corresponding instrumentation. Our model is based on application-specific parameters such as power consumption, execution time, and asymptotic temperature as well as hardware-specific parameters such as half time for thermal rise or fall. As observed with our out-of-band instrumentation and monitoring infrastructure, the temperature changes follow a relatively slow capacitor-style charge-discharge process. Therefore, we use the lumped thermal model that initiates an exponential process whenever there is a change in processor’s power consumption. Initial experiments with two codes – Firestarter and Nekbone – validate our thermal energy model and demonstrate its use for analyzing and potentially improving the application-specific balance between temperature, power, and performance.
Resumo:
Zusammenfassung: Max Frisch und Friedrich Dürrenmatt, als Dioskuren der Schweizer Literatur zeitlebens aneinandergekettet, haben auf der Suche nach ihrem Selbst immer auch den anderen im Blick. Aus ihrer pointierten, gelegentlich polemischen wechselseitigen Abgrenzung entsteht ein künstlerisch höchst produktiver, impliziter Dialog. Er wird hier erstmals explizit gemacht. Unter den Gesichtspunkten von Polyphonie und Dialogizität wird die Konstruktion und Auflösung des autobiographischen Subjekts untersucht. Diese Fallstudien an einzelnen, repräsentativen Texten der beiden Autoren stellen neue Fragen, die für die gesamte Autobiographiediskussion relevant sind: Bei Dürrenmatts großem ,,Stoffe"-Komplex wird, unter Einbezug der textgenetischen Perspektive, der autobiographische Prozess als das Anprobieren von multiplen Ichs analysiert. Das Problem des Subjekts radikalisiert sich als Problem der Sprache, der "vielen Namen", mit denen sich das Subjekt selbst tauft. Bei Frisch deckt die Studie mit ihrem neuen Ansatz die architektonischen und musikalischen Kompositionsverfahren in "Montauk" und "Holozän" auf, eine Textarchitektur in der Zeit und im Medium der Sprache. Dabei werden bisher unbekannte Entwürfe zu diesen wichtigen Spätwerken Frischs erstmals genutzt und publiziert.
Resumo:
In this paper we study the extended Tanh method to obtain some exact solutions of KdV-Burgers equation. The principle of the Tanh method has been explained and then apply to the nonlinear KdV- Burgers evolution equation. A finnite power series in tanh is considered as an ansatz and the symbolic computational system is used to obtain solution of that nonlinear evolution equation. The obtained solutions are all travelling wave solutions.
Resumo:
In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.