131 resultados para Critère de Hilbert-Mumford

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La construction d'un quotient, en topologie, est relativement simple; si $G$ est un groupe topologique agissant sur un espace topologique $X$, on peut considérer l'application naturelle de $X$ dans $X/G$, l'espace d'orbites muni de la topologie quotient. En géométrie algébrique, malheureusement, il n'est généralement pas possible de munir l'espace d'orbites d'une structure de variété. Dans le cas de l'action d'un groupe linéairement réductif $G$ sur une variété projective $X$, la théorie géométrique des invariants nous permet toutefois de construire un morphisme de variété d'un ouvert $U$ de $X$ vers une variété projective $X//U$, se rapprochant autant que possible d'une application quotient, au sens topologique du terme. Considérons par exemple $X\subseteq P^{n}$, une $k$-variété projective sur laquelle agit un groupe linéairement réductif $G$ et supposons que cette action soit induite par une action linéaire de $G$ sur $A^{n+1}$. Soit $\widehat{X}\subseteq A^{n+1}$, le cône affine au dessus de $\X$. Par un théorème de la théorie classique des invariants, il existe alors des invariants homogènes $f_{1},...,f_{r}\in C[\widehat{X}]^{G}$ tels que $$C[\widehat{X}]^{G}= C[f_{1},...,f_{r}].$$ On appellera le nilcone, que l'on notera $N$, la sous-variété de $\X$ définie par le locus des invariants $f_{1},...,f_{r}$. Soit $Proj(C[\widehat{X}]^{G})$, le spectre projectif de l'anneau des invariants. L'application rationnelle $$\pi:X\dashrightarrow Proj(C[f_{1},...,f_{r}])$$ induite par l'inclusion de $C[\widehat{X}]^{G}$ dans $C[\widehat{X}]$ est alors surjective, constante sur les orbites et sépare les orbites autant qu'il est possible de le faire; plus précisément, chaque fibre contient exactement une orbite fermée. Pour obtenir une application régulière satisfaisant les mêmes propriétés, il est nécessaire de jeter les points du nilcone. On obtient alors l'application quotient $$\pi:X\backslash N\rightarrow Proj(C[f_{1},...,f_{r}]).$$ Le critère de Hilbert-Mumford, dû à Hilbert et repris par Mumford près d'un demi-siècle plus tard, permet de décrire $N$ sans connaître les $f_{1},...,f_{r}$. Ce critère est d'autant plus utile que les générateurs de l'anneau des invariants ne sont connus que dans certains cas particuliers. Malgré les applications concrètes de ce théorème en géométrie algébrique classique, les démonstrations que l'on en trouve dans la littérature sont généralement données dans le cadre peu accessible des schémas. L'objectif de ce mémoire sera, entre autres, de donner une démonstration de ce critère en utilisant autant que possible les outils de la géométrie algébrique classique et de l'algèbre commutative. La version que nous démontrerons est un peu plus générale que la version originale de Hilbert \cite{hilbert} et se retrouve, par exemple, dans \cite{kempf}. Notre preuve est valide sur $C$ mais pourrait être généralisée à un corps $k$ de caractéristique nulle, pas nécessairement algébriquement clos. Dans la seconde partie de ce mémoire, nous étudierons la relation entre la construction précédente et celle obtenue en incluant les covariants en plus des invariants. Nous démontrerons dans ce cas un critère analogue au critère de Hilbert-Mumford (Théorème 6.3.2). C'est un théorème de Brion pour lequel nous donnerons une version un peu plus générale. Cette version, de même qu'une preuve simplifiée d'un théorème de Grosshans (Théorème 6.1.7), sont les éléments de ce mémoire que l'on ne retrouve pas dans la littérature.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La comparaison de certaines institutions fondamentales de la responsabilité  professionnelle avec les outils développés par la « médecine fondée sur les faits », paradigme émergent en matière de pratique clinique, permet de mettre en lumière l’unité conceptuelle variable de certaines notions partagées par la médecine et le droit. Ces observations prennent une acuité particulière alors que la faute, telle que généralement conçue par le champ de la responsabilité médicale, pourrait se révéler perméable aux conceptions de la « bonne pratique clinique » sous-tendues par  la médecine fondée sur les faits. Cette perspective pourrait se révéler utile à l’analyse de ce que l’auteur Daniel Jutras a qualifié de « crise conceptuelle » de la responsabilité médicale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, on étudie les extensions galoisiennes finies de C(x). On y démontre le théorème d'existence de Riemann. Les notions de rigidité faible, rigidité et rationalité y sont développées. On y obtient le critère de rigidité qui permet de réaliser certains groupes comme groupes de Galois sur Q. Plusieurs exemples de types de ramification sont construis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail s’interroge quant au niveau de protection offert par la structure actuelle du droit international à l’ensemble de la population LGBT en vertu des normes juridiques de non-discrimination. Il questionne par le fait même la nécessité de créer une convention internationale spécifique contre la discrimination faite en fonction de l’orientation sexuelle au sein du système onusien des droits de la personne. Afin de le déterminer, une analyse bipartite est proposée. L’évolution de la notion d’orientation sexuelle au sein du droit international de 1975 à aujourd’hui expose dans un premier temps l’applicabilité de la norme de non-discrimination à l’ensemble de la population, et ce, malgré la polarisation de la communauté internationale sur la question. Par la suite, la jurisprudence du Comité des droits de l’homme en matière d’orientation sexuelle illustre la mise sur pied d’un régime de protection des minorités sexuelles modulé par les tractations politiques présentes sur la scène internationale. Ce mémoire conclut que la protection de la population LGBT ne nécessite pas la création une convention internationale contre la discrimination faite en fonction de l’orientation sexuelle, mais plutôt l’imposition d’une garantie universellement applicable de la norme juridique de non-discrimination à tous les droits fondamentaux reconnus par le système des traités des Nations Unies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crise des fondements n’a pas affecté les fondements arithmétiques du constructivisme de Kronecker, Bien plutôt, c’est le finitisme kroneckerien de la théorie de l’arithmétique générale ou polynomiale qui a permis à Hilbert de surmonter la crise des fondements ensemblistes et qui a poussé Gödel, inspiré par Hilbert, à proposer une extension du point de vue finitiste pour obtenir une preuve constructive de la consistance de l’arithmétique dans son interprétation fonctionnelle « Dialectica ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A group of agents located along a river have quasi-linear preferences over water and money. We ask how the water should be allocated and what money transfers should be performed. We are interested in efficiency, stability (in the sense of the core), and fairness (in a sense to be defined). We first show that the cooperative game associated with our problem is convex : its core is therefore large and easily described. Next, we propose the following fairness requirement : no group of agents should enjoy a welfare higher than what it could achieve in the absence of the remaining agents. We prove that only one welfare vector in the core satisfies this condition : it is the marginal contribution vector corresponding to the ordering of the agents along the river. We discuss how it could be decentralized or implemented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.