797 resultados para Critère de Hilbert-Mumford


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesis (Maestro en Ingeniería Eléctrica con Orientación en Potencia) UANL, 2011.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La comparaison de certaines institutions fondamentales de la responsabilité  professionnelle avec les outils développés par la « médecine fondée sur les faits », paradigme émergent en matière de pratique clinique, permet de mettre en lumière l’unité conceptuelle variable de certaines notions partagées par la médecine et le droit. Ces observations prennent une acuité particulière alors que la faute, telle que généralement conçue par le champ de la responsabilité médicale, pourrait se révéler perméable aux conceptions de la « bonne pratique clinique » sous-tendues par  la médecine fondée sur les faits. Cette perspective pourrait se révéler utile à l’analyse de ce que l’auteur Daniel Jutras a qualifié de « crise conceptuelle » de la responsabilité médicale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce mémoire, on étudie les extensions galoisiennes finies de C(x). On y démontre le théorème d'existence de Riemann. Les notions de rigidité faible, rigidité et rationalité y sont développées. On y obtient le critère de rigidité qui permet de réaliser certains groupes comme groupes de Galois sur Q. Plusieurs exemples de types de ramification sont construis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent travail s’interroge quant au niveau de protection offert par la structure actuelle du droit international à l’ensemble de la population LGBT en vertu des normes juridiques de non-discrimination. Il questionne par le fait même la nécessité de créer une convention internationale spécifique contre la discrimination faite en fonction de l’orientation sexuelle au sein du système onusien des droits de la personne. Afin de le déterminer, une analyse bipartite est proposée. L’évolution de la notion d’orientation sexuelle au sein du droit international de 1975 à aujourd’hui expose dans un premier temps l’applicabilité de la norme de non-discrimination à l’ensemble de la population, et ce, malgré la polarisation de la communauté internationale sur la question. Par la suite, la jurisprudence du Comité des droits de l’homme en matière d’orientation sexuelle illustre la mise sur pied d’un régime de protection des minorités sexuelles modulé par les tractations politiques présentes sur la scène internationale. Ce mémoire conclut que la protection de la population LGBT ne nécessite pas la création une convention internationale contre la discrimination faite en fonction de l’orientation sexuelle, mais plutôt l’imposition d’une garantie universellement applicable de la norme juridique de non-discrimination à tous les droits fondamentaux reconnus par le système des traités des Nations Unies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crise des fondements n’a pas affecté les fondements arithmétiques du constructivisme de Kronecker, Bien plutôt, c’est le finitisme kroneckerien de la théorie de l’arithmétique générale ou polynomiale qui a permis à Hilbert de surmonter la crise des fondements ensemblistes et qui a poussé Gödel, inspiré par Hilbert, à proposer une extension du point de vue finitiste pour obtenir une preuve constructive de la consistance de l’arithmétique dans son interprétation fonctionnelle « Dialectica ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a computation of the $V_gamma$ dimension for regression in bounded subspaces of Reproducing Kernel Hilbert Spaces (RKHS) for the Support Vector Machine (SVM) regression $epsilon$-insensitive loss function, and general $L_p$ loss functions. Finiteness of the RV_gamma$ dimension is shown, which also proves uniform convergence in probability for regression machines in RKHS subspaces that use the $L_epsilon$ or general $L_p$ loss functions. This paper presenta a novel proof of this result also for the case that a bias is added to the functions in the RKHS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dos hecho fundamentales harán que surja la teoría formalista: 1õ. Surge a principios del siglo XIX teorías no euclídeas y 2õ. Teorías de conjuntos y crisis de fundamentos de finales del siglo XIX. Simutalneamente el problema de la fundamentación de la matemática daba lugar a las distintas escuelas que iban a adoptar diferentes tratamientos: la escuela logicista defendida por Bernard Russel; la escuela intuicionista al frente de la que estaba Brouwer; y la escuela formalista encabezada por Hilbert. El programa de la última buscará una demostración consistente para un cálculo formal axiomatizado. Hilbert introduce una sutil diferencia entre la teoría matemática, constituida por todas las fórmulas de la matemática intuitiva y la metamatemática que tiene por objeto el estudio de la misma matemática y que estará formada por todas las proposiciones que se pueden hacer a partir de las fórmulas matemáticas. Así, pues en síntesis en primer lugar una teoría matemática de carácter informal como por ejemplo la aritmétic; después un sistema formal del cual la aritmética sería una interpretación y; en tercer lugar, el estudio del sistema formal y de sus propiedades estructurales que recibe el nombre de metamatemática, en donde el lenguaje y el racionamiento vuelven a tener un carácter informal. La idea básica de Hilbert consiste en estudiar y analizar el sistema formal hasta que se pueda poner de relieve la imposibilidad de una contradicción para la aritmética clásica. En 1931 se puso de manifiesto la imposibilidad de demostrar la consistencia de un sistema formal suficientemente amplio para contener toda la aritmética. Dicha demostración iba a suponer la renuncia del objetivo fundamental del programa de Hilbert. A pesar de la pérdida del objetivo básico de su programa (de Hilbert), el estudio de los sistemas formales proporcionó importantes conocimientos de la lógica formal y abrió nuevas perspectivas de estudio. La aparicición y desarrollo del formalismo, como estilo y método de trabajo para la matemática ha dado sus frutos en el terreno de la fundamentación donde propiamente había nacido y es pertinente situar su principal aportación que es darles métodos para analizar sus estructuras y sus nociones fundamentales con el fin de precisar su claridad, etcétera. El papel social constructivo que la matemática jugó en la edificación del capitalismo comercial e industrial fue esencialmente lo que hizo que se fomentara su estudio, aunque tuviera que adoptar formas cada vez más abstractas para llegar a planos más profundos de la realidad.