965 resultados para Hilbert-Mumford criterion
Resumo:
The aim of this study is to define a new statistic, PVL, based on the relative distance between the likelihood associated with the simulation replications and the likelihood of the conceptual model. Our results coming from several simulation experiments of a clinical trial show that the PVL statistic range can be a good measure of stability to establish when a computational model verifies the underlying conceptual model. PVL improves also the analysis of simulation replications because only one statistic is associated with all the simulation replications. As well it presents several verification scenarios, obtained by altering the simulation model, that show the usefulness of PVL. Further simulation experiments suggest that a 0 to 20 % range may define adequate limits for the verification problem, if considered from the viewpoint of an equivalence test.
Resumo:
Abstract: In this article we analyze the key concept of Hilbert's axiomatic method, namely that of axiom. We will find two different concepts: the first one from the period of Hilbert's foundation of geometry and the second one at the time of the development of his proof theory. Both conceptions are linked to two different notions of intuition and show how Hilbert's ideas are far from a purely formalist conception of mathematics. The principal thesis of this article is that one of the main problems that Hilbert encountered in his foundational studies consisted in securing a link between formalization and intuition. We will also analyze a related problem, that we will call "Frege's Problem", form the time of the foundation of geometry and investigate the role of the Axiom of Completeness in its solution.
Resumo:
Resumen Stephen Mumford (2004) propone una alternativa al Realismo Nomológico que no requiere resignar los compromisos modales comúnmente asociados a posiciones realistas, un Realismo Sin Leyes (RSL) donde el peso de la modalidad no está puesto sobre las leyes sino sobre propiedades entendidas en términos de poderes y disposiciones. Las ventajas relativas del RSL dependen, sin embargo, de una serie de objeciones que presenta al RN. La principal de ellas es la que Mumford denomina el Dilema Central, según el cual el RN no es capaz de dar cuenta de cómo las leyes gobiernas sus instancias. En el presente trabajo me propongo mostrar que ni el Dilema Central ni el resto de los argumentos de Mumford contra el RN justifican su rechazo.
Resumo:
This thesis examines the application of data envelopment analysis as an equity portfolio selection criterion in the Finnish stock market during period 2001-2011. A sample of publicly traded firms in the Helsinki Stock Exchange is examined in this thesis. The sample covers the majority of the publicly traded firms in the Helsinki Stock Exchange. Data envelopment analysis is used to determine the efficiency of firms using a set of input and output financial parameters. The set of financial parameters consist of asset utilization, liquidity, capital structure, growth, valuation and profitability measures. The firms are divided into artificial industry categories, because of the industry-specific nature of the input and output parameters. Comparable portfolios are formed inside the industry category according to the efficiency scores given by the DEA and the performance of the portfolios is evaluated with several measures. The empirical evidence of this thesis suggests that with certain limitations, data envelopment analysis can successfully be used as portfolio selection criterion in the Finnish stock market when the portfolios are rebalanced at annual frequency according to the efficiency scores given by the data envelopment analysis. However, when the portfolios were rebalanced every two or three years, the results are mixed and inconclusive.
Resumo:
The objective of the present study was to determine the efficacy of detection of antigliadin immunoglobulins G and A (IgG and IgA) for the diagnosis of celiac disease in a developing country, since other enteropathies might alter the levels of these antibodies. Three groups were studied: 22 patients with celiac disease (mean age: 30.6 months), 61 patients with other enteropathies (mean age: 43.3 months), and 46 patients without enteropathies (mean age: 96.9 months). Antigliadin IgG and IgA ELISA showed sensitivity of 90.9 and 95.5%, respectively. With the hypothetical values of prevalence ranging from 1:500 to 1:2000 liveborns, the positive predictive value varied from 8.5 to 2.3% for IgG and from 4.8 to 1.1% for IgA. Considering the patients without enteropathies, specificity was 97.8 and 95.7% for IgG and IgA, respectively. In patients with other enteropathies, specificity was 82.0 and 84.1%, respectively. When patients with and without other enteropathies were considered as a whole, specificity was 88.8 and 91.6%, respectively. The specificity of positive IgG or IgA was 93.5% in children without enteropathies and 78.7% in the presence of other enteropathies. The negative predictive value for hypothetical prevalences varying from 1:500 to 1:2000 liveborns was 99.9%. Thus, even in developing countries where the prevalence of non-celiac enteropathies is high, the determination of serum antigliadin antibody levels is a useful screening test prior to the jejunal biopsy in the investigation of intestinal malabsorption.
Resumo:
Tesis (Maestro en Ingeniería Eléctrica con Orientación en Potencia) UANL, 2011.
Resumo:
Certains symptômes sont les indicateurs incontestés des très graves problèmes que connaît l’Église. S’ils existent aussi dans des confessions et des religions diverses, seuls seront examinés ici ceux qui concernent l’Église catholique. Parmi les plus significatifs figurent un fort déclin dans la participation à des activités religieuses comme les célébrations eucharistiques dominicales, surtout chez les jeunes, une pénurie presque catastrophique de prêtres ordonnés, une perte de prestige et d’influence de l’enseignement dispensé par l’Église. Ces symptômes varient en intensité selon les pays, mais les statistiques indiquent qu’ils se multiplient. Nombre de ces problèmes sont attribuables à l’extrême vélocité de changements qui surviennent partout et à l’apparente inaptitude de l’Église à s’adapter, en raison notamment de son attachement à la pensée néo-scolastique et à la tradition tridentine. Cette fidélité absolue à une tradition vieille de quatre cents ans l’empêche de se faire à un environnement en évolution rapide et radicale. Des changements appropriés s’imposent pratiquement partout dans l’Église. Or, pour que ceux-ci soient efficaces et respectueux de la nature propre de l’Église, la tradition est un guide qui ne suffit pas. S’appuyant sur les termes de l’encyclique Ecclesia de Eucharistia, « le moment décisif où elle (l’Église) a pris forme est certainement celui où a eu lieu l’institution de l’Eucharistie, dans la chambre à l’étage », la thèse présentée suit le plus près possible l’interprétation donnée aux paroles de Jésus, ceci est mon corps, telles qu’elles ont été prononcées la première fois. Selon cette évidence, il est permis d’affirmer que les caractéristiques définitoires de l’Église provenant de ces mots sont agape, unité, service. Tel doit être le principe directeur des changements. C’est sur une telle base que sont décrits les secteurs où les changements s’imposent ainsi que les aspects visés. Ces changements comprennent les points suivants : liturgie, sacrements, catéchèse, mystagogie, théologie, structure, gouvernance de l’Église et ses enseignements, évangélisation. Ces secteurs exigent des efforts sérieux dans la préparation des personnes touchées par ces changements et dans l’attention portée à l’exigence primordiale voulant qu’agape, unité et service soient les principes actifs et évidents régissant l’Église.
Resumo:
L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.
Resumo:
La crise des fondements n’a pas affecté les fondements arithmétiques du constructivisme de Kronecker, Bien plutôt, c’est le finitisme kroneckerien de la théorie de l’arithmétique générale ou polynomiale qui a permis à Hilbert de surmonter la crise des fondements ensemblistes et qui a poussé Gödel, inspiré par Hilbert, à proposer une extension du point de vue finitiste pour obtenir une preuve constructive de la consistance de l’arithmétique dans son interprétation fonctionnelle « Dialectica ».
Resumo:
This paper presents a computation of the $V_gamma$ dimension for regression in bounded subspaces of Reproducing Kernel Hilbert Spaces (RKHS) for the Support Vector Machine (SVM) regression $epsilon$-insensitive loss function, and general $L_p$ loss functions. Finiteness of the RV_gamma$ dimension is shown, which also proves uniform convergence in probability for regression machines in RKHS subspaces that use the $L_epsilon$ or general $L_p$ loss functions. This paper presenta a novel proof of this result also for the case that a bias is added to the functions in the RKHS.
Resumo:
Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities
Resumo:
Dos hecho fundamentales harán que surja la teoría formalista: 1õ. Surge a principios del siglo XIX teorías no euclídeas y 2õ. Teorías de conjuntos y crisis de fundamentos de finales del siglo XIX. Simutalneamente el problema de la fundamentación de la matemática daba lugar a las distintas escuelas que iban a adoptar diferentes tratamientos: la escuela logicista defendida por Bernard Russel; la escuela intuicionista al frente de la que estaba Brouwer; y la escuela formalista encabezada por Hilbert. El programa de la última buscará una demostración consistente para un cálculo formal axiomatizado. Hilbert introduce una sutil diferencia entre la teoría matemática, constituida por todas las fórmulas de la matemática intuitiva y la metamatemática que tiene por objeto el estudio de la misma matemática y que estará formada por todas las proposiciones que se pueden hacer a partir de las fórmulas matemáticas. Así, pues en síntesis en primer lugar una teoría matemática de carácter informal como por ejemplo la aritmétic; después un sistema formal del cual la aritmética sería una interpretación y; en tercer lugar, el estudio del sistema formal y de sus propiedades estructurales que recibe el nombre de metamatemática, en donde el lenguaje y el racionamiento vuelven a tener un carácter informal. La idea básica de Hilbert consiste en estudiar y analizar el sistema formal hasta que se pueda poner de relieve la imposibilidad de una contradicción para la aritmética clásica. En 1931 se puso de manifiesto la imposibilidad de demostrar la consistencia de un sistema formal suficientemente amplio para contener toda la aritmética. Dicha demostración iba a suponer la renuncia del objetivo fundamental del programa de Hilbert. A pesar de la pérdida del objetivo básico de su programa (de Hilbert), el estudio de los sistemas formales proporcionó importantes conocimientos de la lógica formal y abrió nuevas perspectivas de estudio. La aparicición y desarrollo del formalismo, como estilo y método de trabajo para la matemática ha dado sus frutos en el terreno de la fundamentación donde propiamente había nacido y es pertinente situar su principal aportación que es darles métodos para analizar sus estructuras y sus nociones fundamentales con el fin de precisar su claridad, etcétera. El papel social constructivo que la matemática jugó en la edificación del capitalismo comercial e industrial fue esencialmente lo que hizo que se fomentara su estudio, aunque tuviera que adoptar formas cada vez más abstractas para llegar a planos más profundos de la realidad.
Resumo:
We study complete continuity properties of operators onto ℓ2 and prove several results in the Dunford–Pettis theory of JB∗-triples and their projective tensor products, culminating in characterisations of the alternative Dunford–Pettis property for where E and F are JB∗-triples.