978 resultados para elevator contracts
Resumo:
L’arbitrage international, outre le recours aux tribunaux de l’État hôte, est la méthode la plus utilisée pour régler les différends relatifs aux investissements étrangers. Plusieurs accords internationaux d’investissement incluent des dispositions ayant trait à l’arbitrage sous l’égide du Centre International pour le Règlement des Différends relatifs aux Investissements (CIRDI) mis en place par la Convention de Washington de 1966. Les tribunaux arbitraux constitués sous l’égide du Centre sont ainsi appelés à trancher des différends qui concernent la conduite d’États hôtes vis-à-vis ses investisseurs étrangers ; leurs décisions ayant de fortes conséquences sur l’intérêt public, concrètement lorsqu’il s’agit de la protection de l’environnement. L’évolution croissante du droit environnemental et son empiètement sur la protection des investissements a déclenché une série de différends qui ne se limitent plus à mettre en cause des nationalisations ou des violations de contrats - comme auparavant - mais tournent souvent autour de mesures étatiques de politique publique qui impliquent des questions sensibles telles que, inter alia, la gestion de déchets dangereux, l’accès à l’eau potable, l’étalement urbain, la protection de la biodiversité. Par conséquent, le rôle des tribunaux CIRDI et de leurs décisions devient décisif dans le développement du droit des investissements et dans le débat sur la protection des investissements face aux mesures législatives en matière environnementale. Cette étude a pour objet d’analyser la place des considérations environnementales dans les sentences arbitrales CIRDI. Spécifiquement, il s’agit d’étaler les principaux arguments retenus par les tribunaux internationaux, et de dégager les grandes tendances jurisprudentielles en matière d’arbitrage international d’investissements face aux mesures environnementales.
Resumo:
Peut-on donner d’une clause et reprendre de l’autre? Si deux siècles de décisions et de commentaires contradictoires empêchent de répondre à cette question avec la certitude et l’assurance auxquelles nous a habitué la doctrine civiliste, il est tout de même possible d’affirmer que le droit civil prohibe la clause qui permet à un contractant de se dédire totalement de son engagement. Privant l’engagement de son cocontractant de toute raison, et le contrat dans lequel elle se trouve de toute fonction, cette clause contracticide se heurte en effet à une notion fondamentale du droit commun des contrats : la cause. C’est pour éviter que ne soient validés les contrats qui ne présentent aucun intérêt pour l’une ou l’autre des parties que le législateur québécois a choisi d’importer – et de conserver, dans son article introductif du Livre des obligations, cette notion que l’on dit la plus symbolique du droit français des obligations. En effet, bien que son rôle soit fréquemment assumé par d’autres mécanismes, la cause demeure la gardienne des fonctions du contrat synallagmatique. À ce titre, elle permet non seulement d’annuler les contrats qui ne codifient aucun échange, mais également, et surtout, de contrôler ceux dont le contenu ne permet pas de matérialiser les avantages négociés. Octroyant au juge le pouvoir d’assurer que le contrat contienne les outils nécessaires et adaptés à la réalisation de l’opération qu’il a pour fonction de mettre en œuvre, la cause lui offre donc le moyen de garantir l’adéquation entre la fin et ses moyens, bref de contrôler la cohérence matérielle du contrat.
Resumo:
Full Text / Article complet
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
L’autonomie de la volonté demeure aujourd’hui encore, et heureusement, un fondement central du droit civil des contrats. Les principes de liberté contractuelle et de force obligatoire du contrat laissent aux contractants le choix d’aménager les différents paramètres et conditions d’exécution de leur entente, y compris de prévoir à l’avance la limitation ou même l’exclusion de la responsabilité découlant de l’inexécution du contenu contractuel. Cette liberté n’est cependant pas sans borne. Celle-ci doit, depuis l’adoption du Code civil du Québec, obligatoirement s’insérer dans une philosophie morale du rapport contractuel. Ainsi, la question de savoir si l’autonomie de la volonté des contractants va jusqu’à permettre à ceux-ci de s’exonérer d’une obligation essentielle dans le rapport contractuel fait l’objet du présent mémoire. Seront donc étudiés, d’abord, les principaux concepts juridiques interpellés par une telle problématique, soit l’exonération conventionnelle de responsabilité, d’une part, et le concept d’obligation essentielle du contrat, d’autre part. Par la suite, sera observée, dans quelle mesure les principes de liberté contractuelle et de force obligatoire du contrat sont susceptibles de fonder, sous le Code civil du Bas-Canada, d’abord, et sous le Code civil du Québec, ensuite, l’exonération conventionnelle de l’inexécution d’une obligation essentielle. La dernière partie de l’étude sera réservée à l’impact de la moralité contractuelle du Code civil du Québec sur l’exonération conventionnelle de responsabilité. Au regard de la jurisprudence contemporaine, cette conception morale du contrat s’oppose visiblement à ce que l’exonération conventionnelle puisse servir à dégager un contractant de l’inexécution d’une obligation essentielle.
Resumo:
Ce document est une version mise-à-jour du document "On the individual optimality of economic integration", mars 2011 : http://hdl.handle.net/1866/4829
Resumo:
Les historiens ont eu tendance à effacer les femmes de leurs écrits lorsqu’il était question des élites de la Nouvelle-France ; ce concept a longtemps été associé au monde masculin. Le choix d’exclure la gent féminine n’est pas surprenant lorsque l’on sait que les définitions rattachées à l’élite proviennent principalement de la profession, ainsi que de la place occupée par les gens dans les institutions ou dans les structures de pouvoir. À cette époque, la majorité des femmes n’occupaient aucune fonction décisionnelle ; elles étaient maintenues, ‘’grâce’’ au patriarcat, dans la sphère domestique. Malgré ces constats, ce mémoire s’intéresse tout de même à la pertinence d’une définition de l’élite au féminin. Nous essayons donc de démontrer que les femmes en Nouvelle-France avaient aussi des lieux de rassemblement élitaire. Pour y parvenir, nous étudions le parcours des principales officières de la confrérie des Dames de la Sainte-Famille (Montréal) entre 1724 et 1760. Afin de connaître leur statut socio-économique, ce mémoire s’emploie à relever divers éléments caractéristiques : statut socio-professionnel de leur père et de leurs maris, les montants des douaires et des préciputs dans leurs contrats de mariage, l’âge au premier mariage, le nombre de naissances ainsi que la mortalité infantile. Ces divers indicateurs révèlent que la majorité de ces dames provenaient effectivement d’un milieu élitaire. Pour consolider cette conclusion, ce mémoire analyse ensuite le comportement de ces femmes en lien avec une des caractéristiques propres aux élites soit le réseautage. Il s’intéresse particulièrement à la pratique du marrainage ; qui sont les parrains et marraines des officières, qui sont les marraines de leurs enfants et de qui elles sont les marraines. Cette dernière partie du mémoire vient à son tour confirmer la dimension élitaire des officières de la Sainte-Famille.
Resumo:
Ce mémoire propose une analyse de l’expansion internationale de la China National Petroleum Corporation (CNPC) et des impacts de cette expansion sur la sécurité énergétique de la Chine. Dans le cadre de cette recherche, l’approvisionnement énergétique d’un pays est jugé sécuritaire lorsqu’une quantité suffisante de ressources nécessaires pour combler sa demande en énergie sont présentes, disponibles et accessibles et que son approvisionnement en services énergétiques demeure fiable et abordable. La recherche comporte quatre volets. Le premier volet porte sur les étapes de la restructuration de l’industrie pétrolière chinoise depuis 1949. Celle-ci est analysée au travers des changements dans les modes de gestion des compagnies pétrolières nationales et dans leurs relations avec le gouvernement chinois. Le deuxième volet traite de la diversification et des nouvelles spécialisations de CNPC. Ces aspects sont étudiés dans le cadre d’une analyse du pourcentage de ses actifs dans chaque segment industriel (aval, intermédiaire et amont) obtenus grâce à ses rapports annuels. Le troisième volet aborde la répartition géographique des activités de la compagnie que l’on étudie à l’aide d’une analyse approfondie de près de 150 investissements, acquisitions et contrats réalisés à l’étranger entre 1992 et 2014. Le quatrième volet aborde les impacts des investissements à l’étranger de la compagnie sur la sécurité énergétique de la Chine. Ces impacts sont mesurés par l’entremise d’une analyse des flux pétroliers internationaux vers la Chine que l’on compare à la production de CNPC par pays. Ce mémoire permet de déterminer que l’expansion internationale de CNPC sert d’abord et avant tout les intérêts économiques de la compagnie. Ce sont surtout ses investissements dans la construction d’infrastructures de transport (oléoducs, gazoducs ainsi que les usines et terminaux de liquéfaction de gaz naturel liquéfié) qui apportent des bénéfices directs à la sécurité énergétique de la Chine. La contribution des investissements dans les autres secteurs est beaucoup moins systématique et dépend largement de la période au cours de laquelle ils ont été effectués.
Resumo:
Un dérèglement du cycle cellulaire peut causer le cancer. Lors de la cytocinèse un anneau contractile d’actine et de myosine se forme, se contracte, et donne un anneau du midbody qui mène à l’abscision. Le processus de cytocinèse est sous le contrôle de protéines telles que la GTPase Rho qui active la cytocinèse et les cyclines-Cdks qui l'inhibent. La Drosophile possède 3 cyclines mitotiques CycA/ CycB/ CycB3 qui sont successivement dégradées en fin de mitose et permettent l'initiation de la cytocinèse. La dernière étape d’abscission est un phénomène qui reste encore peu connu. Les protéines Vps4 et CHMP4C liées à ANCHR vont, sous la dépendance de la kinase Aurora B, promouvoir l’abscision mais, suite à quelques études récentes, il semble y avoir une implication de la cycline B. Ici, le but était de tester l’implication de cette cycline dans les processus de cytocinèse et d’abscision, elle a été menée par microscopie à haute résolution en temps réel avec des cellules S2 de l’organisme Drosophila melanogaster par le suivi de protéines recombinantes fluorescentes. L’étude a été divisée en deux axes : gain et perte de fonction par l’intermédiaire respectivement de la protéine Cycline B recombinante stable, non dégradable (CycBstable-GFP) et l’inhibition par l’utilisation d’ARN double brin (ARNdb) sur l’endogène. La CycBstable-GFP a perturbé la cytocinèse en induisant plusieurs anneaux contractiles et midbodies. En revanche la réduction de l’expression de CycB n'a pas eu d’effet observable, et elle ne semble pas avoir d’action sur l’abscission malgré le recrutement de CycB-GFP au midbody tardif. En revanche la protéine Cdk1 semble avoir un rôle dans l'abscision puisque sa réduction d’expression a induit un délai. Elle a donc une implication potentielle sur la cytocinèse.
Resumo:
The present study shows design and development of a performance evaluation prototype for IT organizations in the context of outsourcing. The main objective of this research is to help an IT organization in the context of outsourcing to realize its current standing, so it can take corrective steps where ever necessary and strive for continuous improvement. Service level management (SLM) process plays a crucial role in controlling the quality provision for IT service. Out sourcing is the process of entrusting the responsibility of providing certain goods and services to an external party. We have tried to identify as many as twenty complexities and categorized in to four headings. Complexities associated with contracts and SLAs,SLM process,SLM organization and complexities due to intrinsic characteristics. In this study it is possible to measure the quality of the performance of an IT organization in an outsourcing environment effectively
Resumo:
Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Organic agriculture requires farmers with the ability to develop profitable agro-enterprises on their own. By drawing on four years of experiences with the Enabling Rural Innovation approach in Uganda, we outline how smallholder farmers transition to organic agriculture and, at the same time, increase their entrepreneurial skills and competences through learning. In order to document this learning we operationalised the Kirkpatrick learning evaluation model, which subsequently informed the collection of qualitative data in two study sites. Our analysis suggests that the Enabling Rural Innovation approach helps farmers to develop essential capabilities for identifying organic markets and new organic commodities, for testing these organic commodities under varying organic farm management scenarios, and for negotiating contracts with organic traders. We also observed several obstacles that confront farmers’ transition to organic agriculture when using the Enabling Rural Innovation approach. These include the long duration of agronomic experimentation and seed multiplication, expensive organic certification procedures and the absence of adequate mechanism for farmers to access crop finance services. Despite prevailing obstacles we conclude that the Enabling Rural Innovation approach provides a starting point for farmers to develop entrepreneurial competences and profitable agro-enterprises on their own.
Resumo:
The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.
Resumo:
In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.