998 resultados para Laestadius, Lars Levi
Resumo:
We consider envy-free (and budget-balanced) rules that are least manipulable with respect to agents counting or with respect to utility gains. Recently it has been shown that for any profile of quasi-linear preferences, the outcome of any such least manipulable envy-free rule can be obtained via agent-k-linked allocations. This note provides an algorithm for identifying agent-k-linked allocations.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
We consider general allocation problems with indivisibilities where agents' preferences possibly exhibit externalities. In such contexts many different core notions were proposed. One is the gamma-core whereby blocking is only allowed via allocations where the non-blocking agents receive their endowment. We show that if there exists an allocation rule satisfying ‘individual rationality’, ‘efficiency’, and ‘strategy-proofness’, then for any problem for which the gamma-core is non-empty, the allocation rule must choose a gamma-core allocation and all agents are indifferent between all allocations in the gamma-core. We apply our result to housing markets, coalition formation and networks.
Resumo:
This paper explores situations where tenants in public houses, in a specific neighborhood, are given the legislated right to buy the houses they live in or can choose to remain in their houses and pay the regulated rent. This type of legislation has been passed in many European countries in the last 30-35 years (the U.K. Housing Act 1980 is a leading example). The main objective with this type of legislation is to transfer the ownership of the houses from the public authority to the tenants. To achieve this goal, selling prices of the public houses are typically heavily subsidized. The legislating body then faces a trade-off between achieving the goals of the legislation and allocating the houses efficiently. This paper investigates this specific trade-off and identifies an allocation rule that is individually rational, equilibrium selecting, and group non-manipulable in a restricted preference domain that contains “almost all” preference profiles. In this restricted domain, the identified rule is the equilibrium selecting rule that transfers the maximum number of ownerships from the public authority to the tenants. This rule is preferred to the current U.K. system by both the existing tenants and the public authority. Finally, a dynamic process for finding the outcome of the identified rule, in a finite number of steps, is provided.
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.
Resumo:
We previously demonstrated in pigs with acute liver failure (ALF) that albumin dialysis using the molecular adsorbents recirculating system (MARS) attenuated a rise in intracranial pressure (ICP). This was independent of changes in arterial ammonia, cerebral blood flow and inflammation, allowing alternative hypotheses to be tested. The aims of the present study were to determine whether changes in cerebral extracellular ammonia, lactate, glutamine, glutamate, and energy metabolites were associated with the beneficial effects of MARS on ICP. Three randomized groups [sham, ALF (induced by portacaval anastomosis and hepatic artery ligation), and ALF+MARS] were studied over a 6-hour period with a 4-hour MARS treatment given beginning 2 hours after devascularization. Using cerebral microdialysis, the ALF-induced increase in extracellular brain ammonia, lactate, and glutamate was significantly attenuated in the ALF+MARS group as well as the increases in extracellular lactate/pyruvate and lactate/glucose ratios. The percent change in extracellular brain ammonia correlated with the percent change in ICP (r(2) = 0.511). Increases in brain lactate dehydrogenase activity and mitochondrial complex activity for complex IV were found in ALF compared with those in the sham, which was unaffected by MARS treatment. Brain oxygen consumption did not differ among the study groups. Conclusion: The observation that brain oxygen consumption and mitochondrial complex enzyme activity changed in parallel in both ALF- and MARS-treated animals indicates that the attenuation of increased extracellular brain ammonia (and extracellular brain glutamate) in the MARS-treated animals reduces energy demand and increases supply, resulting in attenuation of increased extracellular brain lactate. The mechanism of how MARS reduces extracellular brain ammonia requires further investigation.
Resumo:
Hyperammonemia is a feature of acute liver failure (ALF), which is associated with increased intracranial pressure (ICP) and brain herniation. We hypothesized that a combination of L-ornithine and phenylacetate (OP) would synergistically reduce toxic levels of ammonia by (1) L-ornithine increasing glutamine production (ammonia removal) through muscle glutamine synthetase and (2) phenylacetate conjugating with the ornithine-derived glutamine to form phenylacetylglutamine, which is excreted into the urine. The aims of this study were to determine the effect of OP on arterial and extracellular brain ammonia concentrations as well as ICP in pigs with ALF (induced by liver devascularization). ALF pigs were treated with OP (L-ornithine 0.07 g/kg/hour intravenously; phenylbutyrate, prodrug for phenylacetate; 0.05 g/kg/hour intraduodenally) for 8 hours following ALF induction. ICP was monitored throughout, and arterial and extracellular brain ammonia were measured along with phenylacetylglutamine in the urine. Compared with ALF + saline pigs, treatment with OP significantly attenuated concentrations of arterial ammonia (589.6 +/- 56.7 versus 365.2 +/- 60.4 mumol/L [mean +/- SEM], P= 0.002) and extracellular brain ammonia (P= 0.01). The ALF-induced increase in ICP was prevented in ALF + OP-treated pigs (18.3 +/- 1.3 mmHg in ALF + saline versus 10.3 +/- 1.1 mmHg in ALF + OP-treated pigs;P= 0.001). The value of ICP significantly correlated with the concentration of extracellular brain ammonia (r(2) = 0.36,P< 0.001). Urine phenylacetylglutamine levels increased to 4.9 +/- 0.6 micromol/L in ALF + OP-treated pigs versus 0.5 +/- 0.04 micromol/L in ALF + saline-treated pigs (P< 0.001).Conclusion:L-Ornithine and phenylacetate act synergistically to successfully attenuate increases in arterial ammonia, which is accompanied by a significant decrease in extracellular brain ammonia and prevention of intracranial hypertension in pigs with ALF.
Resumo:
L'objectif de cette recherche est de réfléchir à la notion de vrai dans l'économie discursive du témoignage. C'est-à-dire que ce mémoire se concentre sur le rapport entre le discours critique et académique d'une part, et le discours littéraire de l'autre. Une première partie s'attache à délimiter les contours de du problème, à partir notamment des notions de de vrai et de vraisemblable. Une étude comparative permet d'introduire trois auteurs qui serviront d'exemple tout au long de la recherche: Primo Levi, Jorge Semprun, et Charlotte Delbo. On fait un bref survol de l'évolution des deux économies discursives depuis les tout premiers témoignages (années 40-50) jusqu'au tournant narratif symbolisé par le procès Eichmann. Cela correspond aussi à la parution d'un témoignage à part: Le sang du ciel, de Piotr Rawicz. La seconde partie est un état de la question sur le roman de Rawicz. Comment le fait qu'il s'agisse d'une fiction, notamment, a été discuté par la critique et dans les contributions universitaires qui lui sont consacrées. Cette incursion dans l'herméneutique nous permet d'identifier trois vagues critiques distinctes, selon les époques et les pays. Enfin, la dernière partie s'attache à montrer que Le sang du ciel est un témoignage pensé comme un projet esthétique, dont la modernité ne cède pas à la facilité du refus de dire de quoi on parle, mais qui au contraire pose des questions de son temps et ose aborder les sujets que l'on doit taire selon la doxa.
Resumo:
We show that every cardinal incentive compatible voting mechanism satisfying a continuity condition, must be ordinal. Our results apply to many standard models in mechanism design without transfers, including the standard voting models with any domain restrictions.
Resumo:
The present study on some infinite convex invariants. The origin of convexity can be traced back to the period of Archimedes and Euclid. At the turn of the nineteenth centaury , convexicity became an independent branch of mathematics with its own problems, methods and theories. The convexity can be sorted out into two kinds, the first type deals with generalization of particular problems such as separation of convex sets[EL], extremality[FA], [DAV] or continuous selection Michael[M1] and the second type involved with a multi- purpose system of axioms. The theory of convex invariants has grown out of the classical results of Helly, Radon and Caratheodory in Euclidean spaces. Levi gave the first general definition of the invariants Helly number and Radon number. The notation of a convex structure was introduced by Jamison[JA4] and that of generating degree was introduced by Van de Vel[VAD8]. We also prove that for a non-coarse convex structure, rank is less than or equal to the generating degree, and also generalize Tverberg’s theorem using infinite partition numbers. Compare the transfinite topological and transfinite convex dimensions
Resumo:
Im Rahmen dieser Arbeit wurden magneto-optische Speicherschichten und ihre Kopplungen untereinander untersucht. Hierzu wurden zum Einen die für die magneto-optische Speichertechnologie "klassischen" Schichten aus RE/TM-Legierungen verwendet, zum Anderen aber auch erfolgreich Granate integriert, die bisher nicht in diesem Anwendungsgebiet verwendet wurden. Einleitend werden die magneto-optischen Verfahren, die resultierenden Anforderungen an die dünnen Schichten und die entsprechenden physikalischen Grundlagen diskutiert. Außerdem wird auf das Hochfrequenz-Sputtern von RE/TM-Legierungen eingegangen und die verwendeten magneto-optischen Messverfahren werden erläutert [Kap. 2 & 3]. Die Untersuchungen an RE/TM-Schichten bestätigen die aus der Literatur bekannten Eigenschaften. Sie lassen sich effektiv, und für magneto-optische Anwendungen geeignet, über RF-Sputtern herstellen. Die unmittelbaren Schicht-Parameter, wie Schichtdicke und Terbium-Konzentration, lassen sich über einfache Zusammenhänge einstellen. Da die Terbium-Konzentration eine Änderung der Kompensationstemperatur bewirkt, lässt sich diese mit Messungen am Kerr-Magnetometer überprüfen. Die für die Anwendung interessante senkrechte magnetische Anisotropie konnte ebenfalls mit den Herstellungsbedingungen verknüpft werden. Bei der Herstellung der Schichten auf einer glatten Glas-Oberfläche (Floatglas) zeigt die RE/TM-Schicht bereits in den ersten Lagen ein Wachstumsverhalten, das eine senkrechte Anisotropie bewirkt. Auf einer Quarzglas- oder Keramik-Oberfläche wachsen die ersten Lagen in einer durch das Substrat induzierten Struktur auf, danach ändert sich das Wachstumsverhalten stetig, bis eine senkrechte Anisotropie erreicht wird. Dieses Verhalten kann auch durch verschiedene Pufferschichten (Aluminium und Siliziumnitrid) nur unwesentlich beeinflusst werden [Kap. 5 & Kap. 6]. Bei der direkten Aufbringung von Doppelschichten, bestehend aus einer Auslese-Schicht (GdFeCo) auf einer Speicherschicht (TbFeCo), wurde die Austausch-Kopplung demonstriert. Die Ausleseschicht zeigt unterhalb der Kompensationstemperatur keine Kopplung an die Speicherschicht, während oberhalb der Kompensationstemperatur eine direkte Kopplung der Untergitter stattfindet. Daraus ergibt sich das für den MSR-Effekt erwünschte Maskierungsverhalten. Die vorher aus den Einzelschichten gewonnen Ergebnisse zu Kompensationstemperatur und Wachstumsverhalten konnten in den Doppelschichten wiedergefunden werden. Als Idealfall erweist sich hier die einfachste Struktur. Man bringt die Speicherschicht auf Floatglas auf und bedeckt diese direkt mit der Ausleseschicht [Kap. 7]. Weiterhin konnte gezeigt werden, dass es möglich ist, den Faraday-Effekt einer Granatschicht als verstärkendes Element zu nutzen. Im anwendungstauglichen, integrierten Schichtsystem konnten die kostengünstig, mit dem Sol-Gel-Verfahren produzierten, Granate die strukturellen Anforderungen nicht erfüllen, da sich während der Herstellung Risse und Löcher gebildet haben. Bei der experimentellen Realisierung mit einer einkristallinen Granatschicht und einer RE/TM-Schicht konnte die prinzipielle Eignung des Schichtsystems demonstriert werden [Kap. 8].
Resumo:
Die hier zusammengetragenen Aufsätze gehen sämtlich auf Vorträge zurück, die auf der Jahrestagung der „Sektion Sozialpolitik“ der Deutschen Gesellschaft für Soziologie Anfang Oktober 2011 in Kassel präsentiert wurden. Die Tagung hatte zum Ziel, die Entwicklung wohlfahrtsstaatlicher Infrastruktur(en) zum Gegenstand einer historischen, internationalen und sektorvergleichenden Diskussion zu machen und so die Sensibilität der Fachöffentlichkeit für die oben aufgeworfenen Fragen zu erhöhen.