862 resultados para Moment Inequality
Resumo:
Thèse effectuée en cotutelle avec l'École des hautes études en sciences sociales, Paris. Pour respecter les droits d’auteur, la version électronique de cette thèse a été dépouillée de ses documents visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
"Le cadavre – cette dépouille mortelle, ce corps inanimé devant lequel la fatalité inéluctable s'est abattue – symbolise à la fois un produit de consommation, un objet de culte et une matière de la science. La première acception s'observe au regard du cannibalisme qui permet à ses pratiquants de s'approprier les qualités de la victime et d'effrayer les ennemis; cette vision occidentale d'un être « sauvage mangeur d'homme » inspire notamment Shakespeare à créer Caliban, personnage maléfique dans la comédie La tempête. La deuxième acception renvoie aux rituels funéraires, où le cadavre tend à une certaine sacralisation par le procédé de momification qui, dans l'ancienne Égypte, visait à préserver le corps du défunt afin d'assurer l'existence de son âme dans l'au-delà. La troisième acception transpose le cadavre dans le domaine scientifique; il revêt alors une finalité de « serviabilité » et constitue un « patrimoine biologique » par la possibilité de dons d'organes à titre gratuit, car justifiés par un intérêt altruiste. Une considération contemporaine sur le caractère lucratif du don se pose néanmoins à la lumière des expositions « Bodies » – technique de plastination de l'inventeur Gunther Von Hagen – et de celle projetée par Andreï Molodkin, cet alchimiste de la chair humaine – procédé qui consiste à faire cuire des corps humains pour qu'ils deviennent une huile brute. Outre le questionnement relatif à la provenance des corps ou des organes exposés, il est permis de s'interroger sur le véritable dessein – mercantile ou scientifique? – poursuivi par ces concepteurs."
Resumo:
Ce mémoire porte sur quelques notions appropriées d'actions de groupe sur les variétés symplectiques, à savoir en ordre décroissant de généralité : les actions symplectiques, les actions faiblement hamiltoniennes et les actions hamiltoniennes. Une connaissance des actions de groupes et de la géométrie symplectique étant prérequise, deux chapitres sont consacrés à des présentations élémentaires de ces sujets. Le cas des actions hamiltoniennes est étudié en détail au quatrième chapitre : l'importante application moment y est définie et plusieurs résultats concernant les orbites de la représentation coadjointe, tels que les théorèmes de Kirillov et de Kostant-Souriau, y sont démontrés. Le dernier chapitre se concentre sur les actions hamiltoniennes des tores, l'objectif étant de démontrer le théorème de convexité d'Atiyha-Guillemin-Sternberg. Une discussion d'un théorème de classification de Delzant-Laudenbach est aussi donnée. La présentation se voulant une introduction assez exhaustive à la théorie des actions hamiltoniennes, presque tous les résultats énoncés sont accompagnés de preuves complètes. Divers exemples sont étudiés afin d'aider à bien comprendre les aspects plus subtils qui sont considérés. Plusieurs sujets connexes sont abordés, dont la préquantification géométrique et la réduction de Marsden-Weinstein.
Resumo:
Travail créatif / Creative Work
Resumo:
The present study focuses attention on defining certain measures of income inequality for the truncated distributions and characterization of probability distributions using the functional form of these measures, extension of some measures of inequality and stability to higher dimensions, characterization of bivariate models using the above concepts and estimation of some measures of inequality using the Bayesian techniques. The thesis defines certain measures of income inequality for the truncated distributions and studies the effect of truncation upon these measures. An important measure used in Reliability theory, to measure the stability of the component is the residual entropy function. This concept can advantageously used as a measure of inequality of truncated distributions. The geometric mean comes up as handy tool in the measurement of income inequality. The geometric vitality function being the geometric mean of the truncated random variable can be advantageously utilized to measure inequality of the truncated distributions. The study includes problem of estimation of the Lorenz curve, Gini-index and variance of logarithms for the Pareto distribution using Bayesian techniques.
Resumo:
The present study is an attempt to understand the link between natural resource degradation and poverty among people dependent on these resources. This is done by examining the impact of depletion of marine resources on the livelihood and socio-economic condition of the small-scale marine fishery community in South Kerala. In Kerala, nearly ten lakh fisherfolk depend on the marine fishery resources for their livelihood. The overall level of education of the small-scale fishing community is lower than that of the State’s rural population. Almost all the households surveyed, is one way or other, depend on fishery resources for livelihood. Low levels percapita income and high levels of inequality imply the existence of a large proportion of poor people in the community who are vulnerable to external shocks. The study reveals that poverty was comparatively higher among households with no fishing assets, with only one earner, with more than two children, and depending entirely on pensions/remittances. The study has not provided any evidence to show that poverty in the community is the result of depletion of marine resources.
Resumo:
Ferrofluids belonging to the series, Ni x Fe1-x Fe2O4 and Zn x Fe1-x Fe2O4, were synthesized using cold co-precipitation. Liquid films of these ferrofluids were prepared by encapsulating the ferrofluids in between two optically smooth and ultrasonically cleaned glass plates. Magnetic field induced laser transmission through these ferrofluid films has been investigated. Magnetic field values can be calibrated in terms of output laser power in the low field region in which the variation is linear. This set up can be used as a cheap optical gaussmeter in the low field regime. Using the same set-up, the saturation magnetization of the sample used can also be calculated with a sample that is pre-characterized. Hence both magnetization of the sample, as well as applied magnetic field can be sensed and calculated with a precalibrated sample.
Resumo:
This paper reports a novel region-based shape descriptor based on orthogonal Legendre moments. The preprocessing steps for invariance improvement of the proposed Improved Legendre Moment Descriptor (ILMD) are discussed. The performance of the ILMD is compared to the MPEG-7 approved region shape descriptor, angular radial transformation descriptor (ARTD), and the widely used Zernike moment descriptor (ZMD). Set B of the MPEG-7 CE-1 contour database and all the datasets of the MPEG-7 CE-2 region database were used for experimental validation. The average normalized modified retrieval rate (ANMRR) and precision- recall pair were employed for benchmarking the performance of the candidate descriptors. The ILMD has lower ANMRR values than ARTD for most of the datasets, and ARTD has a lower value compared to ZMD. This indicates that overall performance of the ILMD is better than that of ARTD and ZMD. This result is confirmed by the precision-recall test where ILMD was found to have better precision rates for most of the datasets tested. Besides retrieval accuracy, ILMD is more compact than ARTD and ZMD. The descriptor proposed is useful as a generic shape descriptor for content-based image retrieval (CBIR) applications
Resumo:
The Bieberbach conjecture about the coefficients of univalent functions of the unit disk was formulated by Ludwig Bieberbach in 1916 [Bieberbach1916]. The conjecture states that the coefficients of univalent functions are majorized by those of the Koebe function which maps the unit disk onto a radially slit plane. The Bieberbach conjecture was quite a difficult problem, and it was surprisingly proved by Louis de Branges in 1984 [deBranges1985] when some experts were rather trying to disprove it. It turned out that an inequality of Askey and Gasper [AskeyGasper1976] about certain hypergeometric functions played a crucial role in de Branges' proof. In this article I describe the historical development of the conjecture and the main ideas that led to the proof. The proof of Lenard Weinstein (1991) [Weinstein1991] follows, and it is shown how the two proofs are interrelated. Both proofs depend on polynomial systems that are directly related with the Koebe function. At this point algorithms of computer algebra come into the play, and computer demonstrations are given that show how important parts of the proofs can be automated.
Resumo:
The rejection of the European Constitution marks an important crystallization point for debate about the European Union (EU) and the integration process. The European Constitution was envisaged as the founding document of a renewed and enlarged European Union and thus it was rather assumed to find wide public support. Its rejection was not anticipated. The negative referenda in France and the Netherlands therefore led to a controversial debate about the more fundamental meaning and the consequences of the rejection both for the immediate state of affairs as well as for the further integration process. The rejection of the Constitution and the controversy about its correct interpretation therefore present an intriguing puzzle for political analysis. Although the treaty rejection was taken up widely in the field of European Studies, the focus of existing analyses has predominantly been on explaining why the current situation occurred. Underlying these approaches is the premise that by establishing the reasons for the rejection it is possible to derive the ‘true’ meaning of the event for the EU integration process. In my paper I rely on an alternative, discourse theoretical approach which aims to overcome the positivist perspective dominating the existing analyses. I argue that the meaning of the event ‘treaty rejection’ is not fixed or inherent to it but discursively constructed. The critical assessment of this concrete meaning-production is of high relevance as the specific meaning attributed to the treaty rejection effectively constrains the scope for supposedly ‘reasonable’ options for action, both in the concrete situation and in the further European integration process more generally. I will argue that the overall framing suggests a fundamental technocratic approach to governance from part of the Commission. Political struggle and public deliberation is no longer foreseen as the concrete solutions to the citizens’ general concerns are designed by supposedly apolitical experts. Through the communicative diffusion and the active implementation of this particular model of governance the Commission shapes the future integration process in a more substantial way than is obvious from its seemingly limited immediate problem-solving orientation of overcoming the ‘constitutional crisis’. As the European Commission is a central actor in the discourse production my analysis focuses on the specific interpretation of the situation put forward by the Commission. In order to work out the Commission’s particular take on the event I conducted a frame analysis (according to Benford/Snow) on a body of key sources produced in the context of coping with the treaty rejection.
Resumo:
Almost all Latin American countries are still marked by extreme forms of social inequality – and to an extent, this seems to be the case regardless of national differences in the economic development model or the strength of democracy and the welfare state. Recent research highlights the fact that the heterogeneous labour markets in the region are a key source of inequality. At the same time, there is a strengthening of ‘exclusive’ social policy, which is located at the fault lines of the labour market and is constantly (re-)producing market-mediated disparities. In the last three decades, this type of social policy has even enjoyed democratic legitimacy. These dynamics challenge many of the assumptions guiding social policy and democratic theory, which often attempt to account for the specificities of the region by highlighting the purported flaws of certain policies. We suggest taking a different perspective: social policy in Latin American should not be grasped as a deficient or flawed type of social policy, but as a very successful relation of political domination. ‘Relational social analysis’ locates social policy in the ‘tension zone’ constituted by the requirements of economic reproduction, demands for democratic legitimacy and the relative autonomy of the state. From this vantage point, we will make the relation of domination in question accessible for empirical research. It seems particularly useful for this purpose to examine the recent shifts in the Latin American labour markets, which have undergone numerous reforms. We will examine which mechanisms, institutions and constellations of actors block or activate the potentials of redistribution inherent in such processes of political reform. This will enable us to explore the socio-political field of forces that has been perpetuating the social inequalities in Latin America for generations.
Resumo:
Les travaux ici présentés se définissent explicitement comme des recherches sur des situations de formation d’enseignants non spécialistes aux problématiques des Enseignements Artistiques et Culturels1 [EAC]. Cela ne signifie pas que ces travaux relèvent de ce qui serait une «recherche appliquée»; bien au contraire, nous postulons que ces situations professionnelles renvoient à la recherche «fondamentale» en sciences des arts des questions originales et difficiles. Une des difficultés de la formation d’enseignants polyvalents est justement de leur apporter, dans des délais forcément réduits, des connaissances solides, alors qu’elles portent sur des champs disciplinaires multiples, et sur des noeuds théoriques qui se révèlent complexes