991 resultados para Moore, Josiah.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est essentiellement une revue de littérature critique, comparative et complémentariste de quelques-unes des grandes théories de la révolution. L’auteur cherche, à travers le cas particulier de la révolution, à mieux cerner certains enjeux cruciaux de changements sociaux. Il s’interroge, notamment, sur la nature et l’importance du projet révolutionnaire en relation avec la mobilisation et l’issue révolutionnaire. La majeure partie du mémoire est consacré à la constitution d’un portrait des théories dites « classique », celle de Marx, Moore, Gurr, Tilly, Johnson, Wallace, Brinton, puis celle, originale et méconnue, du religiologue Jean-Jacques Dubois. Après en avoir tiré les thématiques essentielles, l’auteur tente une comparaison critique et discute de la pertinence épistémique de chacun des concepts. Dans une perspective synthétique, il entreprend finalement d’en combler les lacunes en s’intéressant à leurs aspects complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse insiste sur les différents aspects du terme interprétation. Si son sens varie d’une discipline à l’autre, il varie également d’un juriste à un autre. Partant du constat de l’inadéquation de la théorie classique reposant sur la distinction entre méthode subjective et méthode objective d’interprétation, la thèse propose une nouvelle théorie interprétative basée sur les théories de la communication (la rhétorique et la pragmatique). La théorie pragmatique ainsi développée est par la suite illustrée à l’aide de la jurisprudence de la Cour d’appel du Québec. Ceci afin de démontrer qu’il n’y a pas une théorie interprétative, mais bien des théories interprétatives du contrat au sein des magistrats. Ces théories se distinguent par la prépondérance qu’elles accordent aux arguments de volonté, de logique et d’effectivité. De plus, la thèse fait la démonstration de la nécessité de distinguer entre la production de la norme (opération intellectuelle suivie par l’interprète inaccessible pour l’auditoire) et la justification de la norme (argumentation développée par l’interprète afin de convaincre l’auditoire). S’il peut y avoir adéquation entre ces deux étapes, il peut également y avoir discordance entre le processus suivi afin d’arriver au résultat interprétatif et la justification de ce dernier. Tel est le cas notamment lorsque l’interprète argumente à l’aide de la théorie de l’acte clair voulant qu’un texte clair n’ait pas besoin d’être interprété.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option formation en sciences infirmières

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie les rapports texte/image dans Vues et visions de Claude Cahun, première œuvre composite créée en collaboration avec la peintre graphiste Marcel Moore. L’objet littéraire protéiforme, appartenant au genre de l’iconotexte (Alain Montandon), instaure un dialogue intermédial entre le textuel et le visuel au point de déconstruire l’horizon d’attente du lecteur : celui-ci est incité à lire et à voir alternativement les poèmes en prose ainsi que les dessins de sorte que les frontières qui définissent l’espace du littéral et du figural apparaissent poreuses. Subdivisé en deux chapitres, notre travail s’attachera dans un premier temps à mettre en lumière le rôle de l’écriture qui intègre certains dessins de Moore. En nous inspirant de l’iconolecture (Emmanuelle Pelard), nous tenterons d’effectuer des liens entre la plasticité et la signification littérale des signes linguistiques qu’illustrent ces images-textes tout en étudiant les correspondances thématiques et formelles qu’elles entretiennent avec les poèmes de Cahun. Le second chapitre étudiera la manière dont le figural investit le texte littéraire en adoptant une approche intermédiale. Après avoir abordé la figure du double, une partie de l’analyse sera consacrée à la figure de l’allusion, une stratégie d’écriture pour introduire le visuel au sein du textuel, ce qui nous permettra d’entrer en matière pour étudier « l’image-en-texte » (Liliane Louvel). Enfin, l’effet-tableau ainsi que l’anamorphose seront employés comme cadre d’analyse afin de penser le dialogue qui se noue entre le pictural et le texte littéraire dans Vues et visions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Peut-on donner d’une clause et reprendre de l’autre? Si deux siècles de décisions et de commentaires contradictoires empêchent de répondre à cette question avec la certitude et l’assurance auxquelles nous a habitué la doctrine civiliste, il est tout de même possible d’affirmer que le droit civil prohibe la clause qui permet à un contractant de se dédire totalement de son engagement. Privant l’engagement de son cocontractant de toute raison, et le contrat dans lequel elle se trouve de toute fonction, cette clause contracticide se heurte en effet à une notion fondamentale du droit commun des contrats : la cause. C’est pour éviter que ne soient validés les contrats qui ne présentent aucun intérêt pour l’une ou l’autre des parties que le législateur québécois a choisi d’importer – et de conserver, dans son article introductif du Livre des obligations, cette notion que l’on dit la plus symbolique du droit français des obligations. En effet, bien que son rôle soit fréquemment assumé par d’autres mécanismes, la cause demeure la gardienne des fonctions du contrat synallagmatique. À ce titre, elle permet non seulement d’annuler les contrats qui ne codifient aucun échange, mais également, et surtout, de contrôler ceux dont le contenu ne permet pas de matérialiser les avantages négociés. Octroyant au juge le pouvoir d’assurer que le contrat contienne les outils nécessaires et adaptés à la réalisation de l’opération qu’il a pour fonction de mettre en œuvre, la cause lui offre donc le moyen de garantir l’adéquation entre la fin et ses moyens, bref de contrôler la cohérence matérielle du contrat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse soutenue le 27 février 2015 devant un jury composé par Marie-Hélène Benoit-Otis (présidente, Université de Montréal), François de Médicis (Université de Montréal), Christopher Moore (Université d'Ottawa) et Michel Duchesneau (Université de Montréal).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main purpose of the study is to extent concept of the class of spaces called ‘generalized metric spaces’ to fuzzy context and investigates its properties. Any class of spaces defined by a property possessed by all metric spaces could technically be called as a class of ‘generalized metric spaces’. But the term is meant for classes, which are ‘close’ to metrizable spaces in some under certain kinds of mappings. The theory of generalized metric spaces is closely related to ‘metrization theory’. The class of spaces likes Morita’s M- spaces, Borges’s w-spaces, Arhangelskii’s p-spaces, Okuyama’s  spaces have major roles in the theory of generalized metric spaces. The thesis introduces fuzzy metrizable spaces, fuzzy submetrizable spaces and proves some characterizations of fuzzy submetrizable spaces, and also the fuzzy generalized metric spaces like fuzzy w-spaces, fuzzy Moore spaces, fuzzy M-spaces, fuzzy k-spaces, fuzzy -spaces study of their properties, prove some equivalent conditions for fuzzy p-spaces. The concept of a network is one of the most useful tools in the theory of generalized metric spaces. The -spaces is a class of generalized metric spaces having a network.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The edge excitations and related topological orders of correlated states of a fast rotating Bose gas are studied. Using exact diagonalization of small systems, we compute the energies and number of edge excitations, as well as the boson occupancy near the edge for various states. The chiral Luttinger-liquid theory of Wen is found to be a good description of the edges of the bosonic Laughlin and other states identified as members of the principal Jain sequence for bosons. However, we find that in a harmonic trap the edge of the state identified as the Moore-Read (Pfaffian) state shows a number of anomalies. An experimental way of detecting these correlated states is also discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Kempter Wald ist aufgrund seiner großflächigen prioritären Lebensräume - den Hoch- und Übergangsmooren - aber auch den landesweit selten gewordenen und durch Nutzungsaufgabe bedrohten Streuwiesen und Flachmoorgesellschaften ein Landschaftsraum von herausragender naturschutzfachlicher Bedeutung. Ausgehend von der nach wie vor aktuellen Debatte um die Schutzgebietsausweisung im Kempter Wald wurde auf dem Gebiet der Marktgemeinde Unterthingau und der Gemeinde Kraftisried die vorhandene Grünlandvegetation auf Feuchtstandorten im Kempter Wald vegetationskundlich erfasst mit der Absicht, auf der Grundlage dieser Untersuchung exemplarisch ein Entwicklungskonzept für die Streu- und Feuchtwiesen zu erarbeiten. Erfasst wurden auf der Grundlage von insgesamt über 170 Vegetationsaufnahmen nach BRAUN-BLANQUET (1965) neben mehrschnittigem Wirtschaftsgrünland auf Feuchtstandorten ein- und zweischnittig genutzte Bachdistel-Wiesen, Pfeifengraswiesen in zwei unterschiedlichen Ausbildungen, Flachmoorgesellschaften auf eher basischen Standorten – das Davallseggen-Quellmoor – sowie im Kontaktbereich der Moore gelegene Kleinseggenrieder auf bodensauren Standorten - der Herzblatt-Braunseggensumpf. Sowohl in den Pfeifengraswiesen als auch in den Kleinseggensümpfen kennzeichnen Blöcke mit Fettwiesenarten in den Vegetationstabellen einen streuwiesenuntypischen Frühschnitt der Flächen im Sommer. Ein Grundkennartengerüst der jeweiligen Gesellschaften ist aber trotzdem bislang noch erhalten geblieben. Im zweiten Teil der Untersuchung wird ein Konzept für eine zukünftige Entwicklung der Streu- und Feuchtwiesennutzung vorgestellt. Das Entwicklungskonzept greift den hohen Stellenwert der offenen Flächen für die Naherholung und den Tourismus auf und versucht auf der Grundlage der beiden Bewertungsfaktoren „Arten- und Biotopschutz“ und „Erholungsnutzung“ Prioritäten für eine zukünftige Entwicklung herauszuarbeiten. So wird im Bereich der Haupterschließungswege der Erhalt der artenreichen Streu- und Feuchtwiesen als vorrangig erachtet. In abgelegenen, z. T. von Wald eingeschlossenen Streuwiesen oder im Randbereich der Hochmoore, kann dagegen für den Fall, dass eine Fortsetzung der Bewirtschaftung aufgrund ausbleibender Fördermittel gefährdet ist, eine natürliche Sukzession zugelassen werden. Isoliert inmitten intensiv genutzter Grünlandflächen gelegene Streuwiesen können sich bei Nutzungsaufgabe zu Feuchtwäldchen oder Feldgehölzen weiterentwickeln. Hinsichtlich der Streuwiesenpflege sollten die Schnittzeitpunkte insgesamt flexibler gehandhabt werden. Nasse Kleinseggenrieder können auch durch eine Mahd in größeren Zeitabständen von 2 bis 5 Jahren erhalten werden. In Randbereichen der Hochmoore sollte in Streuwiesenbrachen in größeren Zeitabständen (10 bis 20 Jahre) auflaufender Gehölzbestand entfernt werden um den Offenlandcharakter für bestimmte Tierartengruppen zu erhalten. In der Beweidung der Streuwiesen wird für Gebiete wie dem Kempter Wald keine realistische Alternative gesehen. Bei der großen Anzahl an Eigentümern und Pächtern ist die Organisation der Beweidung äußerst schwierig. Die Offenhaltung durch Beweidung erfordert außerdem eine gezielte Weideführung sowie die Nachmahd nicht abgefressener Nassbereiche. Eine Kosteneinsparung durch Beweidung erscheint daher eher unwahrscheinlich. Als ergänzende Maßnahmen werden für brachfallende Streuwiesen die Anlage von Kleingewässern sowie der Rückbau von Entwässerungsgräben vorgeschlagen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The furious pace of Moore's Law is driving computer architecture into a realm where the the speed of light is the dominant factor in system latencies. The number of clock cycles to span a chip are increasing, while the number of bits that can be accessed within a clock cycle is decreasing. Hence, it is becoming more difficult to hide latency. One alternative solution is to reduce latency by migrating threads and data, but the overhead of existing implementations has previously made migration an unserviceable solution so far. I present an architecture, implementation, and mechanisms that reduces the overhead of migration to the point where migration is a viable supplement to other latency hiding mechanisms, such as multithreading. The architecture is abstract, and presents programmers with a simple, uniform fine-grained multithreaded parallel programming model with implicit memory management. In other words, the spatial nature and implementation details (such as the number of processors) of a parallel machine are entirely hidden from the programmer. Compiler writers are encouraged to devise programming languages for the machine that guide a programmer to express their ideas in terms of objects, since objects exhibit an inherent physical locality of data and code. The machine implementation can then leverage this locality to automatically distribute data and threads across the physical machine by using a set of high performance migration mechanisms. An implementation of this architecture could migrate a null thread in 66 cycles -- over a factor of 1000 improvement over previous work. Performance also scales well; the time required to move a typical thread is only 4 to 5 times that of a null thread. Data migration performance is similar, and scales linearly with data block size. Since the performance of the migration mechanism is on par with that of an L2 cache, the implementation simulated in my work has no data caches and relies instead on multithreading and the migration mechanism to hide and reduce access latencies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentació de l'experiència d'avaluació en APP a l'Institut Nacional de Ciències Aplicades de Tolosa