971 resultados para Monotone Approximation
Resumo:
Mitjançant l'anàlisi d'un cas 'redisseny del web de l'hotel Jucamar' es porta a terme una aproximació a la situació actual de la usabilitat en el comerç electrònic espanyol.
Resumo:
Cette thèse s'intéresse à étudier les propriétés extrémales de certains modèles de risque d'intérêt dans diverses applications de l'assurance, de la finance et des statistiques. Cette thèse se développe selon deux axes principaux, à savoir: Dans la première partie, nous nous concentrons sur deux modèles de risques univariés, c'est-à- dire, un modèle de risque de déflation et un modèle de risque de réassurance. Nous étudions le développement des queues de distribution sous certaines conditions des risques commun¬s. Les principaux résultats sont ainsi illustrés par des exemples typiques et des simulations numériques. Enfin, les résultats sont appliqués aux domaines des assurances, par exemple, les approximations de Value-at-Risk, d'espérance conditionnelle unilatérale etc. La deuxième partie de cette thèse est consacrée à trois modèles à deux variables: Le premier modèle concerne la censure à deux variables des événements extrême. Pour ce modèle, nous proposons tout d'abord une classe d'estimateurs pour les coefficients de dépendance et la probabilité des queues de distributions. Ces estimateurs sont flexibles en raison d'un paramètre de réglage. Leurs distributions asymptotiques sont obtenues sous certaines condi¬tions lentes bivariées de second ordre. Ensuite, nous donnons quelques exemples et présentons une petite étude de simulations de Monte Carlo, suivie par une application sur un ensemble de données réelles d'assurance. L'objectif de notre deuxième modèle de risque à deux variables est l'étude de coefficients de dépendance des queues de distributions obliques et asymétriques à deux variables. Ces distri¬butions obliques et asymétriques sont largement utiles dans les applications statistiques. Elles sont générées principalement par le mélange moyenne-variance de lois normales et le mélange de lois normales asymétriques d'échelles, qui distinguent la structure de dépendance de queue comme indiqué par nos principaux résultats. Le troisième modèle de risque à deux variables concerne le rapprochement des maxima de séries triangulaires elliptiques obliques. Les résultats théoriques sont fondés sur certaines hypothèses concernant le périmètre aléatoire sous-jacent des queues de distributions. -- This thesis aims to investigate the extremal properties of certain risk models of interest in vari¬ous applications from insurance, finance and statistics. This thesis develops along two principal lines, namely: In the first part, we focus on two univariate risk models, i.e., deflated risk and reinsurance risk models. Therein we investigate their tail expansions under certain tail conditions of the common risks. Our main results are illustrated by some typical examples and numerical simu¬lations as well. Finally, the findings are formulated into some applications in insurance fields, for instance, the approximations of Value-at-Risk, conditional tail expectations etc. The second part of this thesis is devoted to the following three bivariate models: The first model is concerned with bivariate censoring of extreme events. For this model, we first propose a class of estimators for both tail dependence coefficient and tail probability. These estimators are flexible due to a tuning parameter and their asymptotic distributions are obtained under some second order bivariate slowly varying conditions of the model. Then, we give some examples and present a small Monte Carlo simulation study followed by an application on a real-data set from insurance. The objective of our second bivariate risk model is the investigation of tail dependence coefficient of bivariate skew slash distributions. Such skew slash distributions are extensively useful in statistical applications and they are generated mainly by normal mean-variance mixture and scaled skew-normal mixture, which distinguish the tail dependence structure as shown by our principle results. The third bivariate risk model is concerned with the approximation of the component-wise maxima of skew elliptical triangular arrays. The theoretical results are based on certain tail assumptions on the underlying random radius.
Resumo:
Cryo-electron microscopy of vitreous sections (CEMOVIS) has recently been shown to provide images of biological specimens with unprecedented quality and resolution. Cutting the sections remains however the major difficulty. Here, we examine the parameters influencing the quality of the sections and analyse the resulting artefacts. They are in particular: knife marks, compression, crevasses, and chatter. We propose a model taking into account the interplay between viscous flow and fracture. We confirm that crevasses are formed on only one side of the section, and define conditions by which they can be avoided. Chatter is an effect of irregular compression due to friction of the section of the knife edge and conditions to prevent this are also explored. In absence of crevasses and chatter, the bulk of the section is compressed approximately homogeneously. Within this approximation, it is possible to correct for compression by a simple linear transformation for the bulk of the section. A research program is proposed to test and refine our understanding of the sectioning process.
Resumo:
The multiscale finite volume (MsFV) method has been developed to efficiently solve large heterogeneous problems (elliptic or parabolic); it is usually employed for pressure equations and delivers conservative flux fields to be used in transport problems. The method essentially relies on the hypothesis that the (fine-scale) problem can be reasonably described by a set of local solutions coupled by a conservative global (coarse-scale) problem. In most cases, the boundary conditions assigned for the local problems are satisfactory and the approximate conservative fluxes provided by the method are accurate. In numerically challenging cases, however, a more accurate localization is required to obtain a good approximation of the fine-scale solution. In this paper we develop a procedure to iteratively improve the boundary conditions of the local problems. The algorithm relies on the data structure of the MsFV method and employs a Krylov-subspace projection method to obtain an unconditionally stable scheme and accelerate convergence. Two variants are considered: in the first, only the MsFV operator is used; in the second, the MsFV operator is combined in a two-step method with an operator derived from the problem solved to construct the conservative flux field. The resulting iterative MsFV algorithms allow arbitrary reduction of the solution error without compromising the construction of a conservative flux field, which is guaranteed at any iteration. Since it converges to the exact solution, the method can be regarded as a linear solver. In this context, the schemes proposed here can be viewed as preconditioned versions of the Generalized Minimal Residual method (GMRES), with a very peculiar characteristic that the residual on the coarse grid is zero at any iteration (thus conservative fluxes can be obtained).
Resumo:
Cette étude porte sur la recherche biomédicale en Suisse dans une perspective interprétative. Elle s'intéresse à l'usage que font les acteurs scientifiques et institutionnels de la catégorie «biomédical», à la signification qu'ils en donnent et aux processus de structuration de la recherche biomédicale autour de ces enjeux de catégorisation. Nous avons formulé l'hypothèse que le «biomédical» pouvait être considéré comme un label, à savoir une stratégie discursive de positionnement des acteurs, ou pouvait constituer un champ, à savoir un espace social de recherche fortement structuré. Pour pouvoir vérifier la validité de ces hypothèses, trois perspectives analytiques ont été retenues: topographie, discours et pratiques. Dans un premier temps, nous avons établi une topographie de la recherche biomédicale en repérant les acteurs (et leur appartenance disciplinaire) et les institutions qui s'associent au terme «biomédical», que ce soit pour décrire des institutions ou des projets de recherche. Les résultats de cette analyse offrent une première approximation d'un espace de la recherche en donnant une image d'un domaine peu unifié. Ainsi, l'usage de la catégorie «biomédical» dans les projets des chercheurs n'est pas le fait des seuls médecins et biologistes, mais également de représentants d'autres disciplines. La physique, la chimie et les sciences de l'ingénieur occupent ainsi également une place très importante dans cet espace de recherche. Puis, dans une perspective discursive, nous avons analysé le «biomédical» non seulement comme un label, mais également comme un objet-frontière permettant d'articuler différentes significations, de produire du sens là où des univers de recherche pourraient s'opposer, ou à coordonner des politiques qui ne l'étaient pas. L'analyse des différentes définitions du «biomédical» nous a confirmé l'existence d'un espace social marqué par une grande diversité disciplinaire, toutefois articulé autour d'un coeur médical et, plus particulièrement, d'une application médicale (potentielle ou actuelle). De plus, il ne semble pas y avoir de profondes luttes pour l'établissement de limites claires au «biomédical». Finalement, nous avons étudié les différentes activités de la production des savoirs (carrières, financement, collaboration, publication, etc.). Cette analyse a permis de comprendre que la diversité des définitions et des significations que les acteurs attribuent à la catégorie «biomédical» a aussi un ancrage dans la matérialité des réseaux sociotechniques dans lesquels les chercheurs s'inscrivent. Ces éléments confirment l'idée d'une fragmentation et d'une hétérogénéité de l'espace de la recherche biomédicale. En dépit de cette fragmentation, nous avons également montré que différentes mesures et instruments d'action publique visant à organiser et réguler les pratiques des chercheurs sont mis en oeuvre. Néanmoins et paradoxalement, la recherche biomédicale ne constitue pas pour autant un objet de politique scientifique abordé par les autorités politiques, en tous les cas pas sous l'angle de la catégorie «biomédical». Ces différents niveaux d'analyse ont permis d'arriver à la conclusion que la catégorie «biomédical» n'est pas suffisamment institutionnalisée et que le degré d'interaction entre l'ensemble des chercheurs qui en font usage est trop faible pour que l'on puisse considérer le «biomédical» comme un espace social fortement organisé et structuré, à savoir un champ de la recherche biomédicale. Cela est principalement lié au fait que les acteurs ne partagent pas les mêmes définitions de ce qu'est (ou devrait être) le «biomédical», que leurs pratiques de recherche s'inscrivent dans des univers relativement séparés, et que cette diversité ne donne pas lieu à de fortes luttes pour l'imposition d'une définition légitime ou de normes d'excellence scientifiques dominantes. Par contre, les analyses ont permis de confirmer la validité du «biomédical» comme label, puisque les acteurs se servent de cette catégorie pour valoriser leurs pratiques de recherche et se positionner, même si d'autres notions ont émergé ces dernières années («translationnel», «biotech», «medtech», médecine personnalisée, etc.). On peut, in fine, considérer le «biomédical» comme un probable langage commun («objet-frontière») reposant tant sur la scientificisation du médical que sur la médicalisation des sciences («de base» et «techniques »), visant à améliorer les conditions de possibilité d'un dialogue fructueux entre chercheurs fondamentaux et cliniciens.
Resumo:
This letter presents a comparison between threeFourier-based motion compensation (MoCo) algorithms forairborne synthetic aperture radar (SAR) systems. These algorithmscircumvent the limitations of conventional MoCo, namelythe assumption of a reference height and the beam-center approximation.All these approaches rely on the inherent time–frequencyrelation in SAR systems but exploit it differently, with the consequentdifferences in accuracy and computational burden. Aftera brief overview of the three approaches, the performance ofeach algorithm is analyzed with respect to azimuthal topographyaccommodation, angle accommodation, and maximum frequencyof track deviations with which the algorithm can cope. Also, ananalysis on the computational complexity is presented. Quantitativeresults are shown using real data acquired by the ExperimentalSAR system of the German Aerospace Center (DLR).
Resumo:
Aquest projecte es centra principalment en el detector no coherent d’un GPS. Per tal de caracteritzar el procés de detecció d’un receptor, es necessita conèixer l’estadística implicada. Pel cas dels detectors no coherents convencionals, l’estadística de segon ordre intervé plenament. Les prestacions que ens dóna l’estadística de segon ordre, plasmada en la ROC, són prou bons tot i que en diferents situacions poden no ser els millors. Aquest projecte intenta reproduir el procés de detecció mitjançant l’estadística de primer ordre com a alternativa a la ja coneguda i implementada estadística de segon ordre. Per tal d’aconseguir-ho, s’usen expressions basades en el Teorema Central del Límit i de les sèries Edgeworth com a bones aproximacions. Finalment, tant l’estadística convencional com l’estadística proposada són comparades, en termes de la ROC, per tal de determinar quin detector no coherent ofereix millor prestacions en cada situació.
Resumo:
Analyzing functional data often leads to finding common factors, for which functional principal component analysis proves to be a useful tool to summarize and characterize the random variation in a function space. The representation in terms of eigenfunctions is optimal in the sense of L-2 approximation. However, the eigenfunctions are not always directed towards an interesting and interpretable direction in the context of functional data and thus could obscure the underlying structure. To overcome such difficulty, an alternative to functional principal component analysis is proposed that produces directed components which may be more informative and easier to interpret. These structural components are similar to principal components, but are adapted to situations in which the domain of the function may be decomposed into disjoint intervals such that there is effectively independence between intervals and positive correlation within intervals. The approach is demonstrated with synthetic examples as well as real data. Properties for special cases are also studied.
Resumo:
La quatrième version de l'échelle d'intelligence de Wechsler pour enfants (WISC-IV) permet le calcul du QI Total et de quatre indices factoriels : compréhension verbale, raisonnement perceptif, vitesse de traitement et mémoire de travail. En 1998, Prifitera et al, ont préconisé le calcul de l'indice d'aptitude général (IAG) comme alternative au quotient intellectuel total (QIT), et cela à partir des scores de compréhension verbale et de raisonnement perceptif. La première étude présentée dans cet article a pour objectif d'établir les normes francophones pour le score IAG du WISC-IV, en utilisant une procédure d'approximation statistique. La deuxième étude vise à examiner la validité de ces normes, en les confrontant à des données recueillies sur un échantillon de 60 enfants. La corrélation entre QIT et IAG est de 0,91 et la différence relative moyenne de 0,18 point. Ces normes permettent d'utiliser le score IAG comme alternative au QIT dans certaines situations diagnostiques.
Resumo:
A través de la historia de la vida, gran parte de los organismos han desarrollado estrategias para responder a un mundo en constante cambio. Hoy en día, las actividades humanas producen cambios ambientales a una velocidad sin precedentes, lo cual se traduce en grandes desafíos para la persistencia de biodiversidad. Esta investigación evalúa las respuesta de los animales a los cambios ambientales enfocándose en la flexibilidad del comportamiento como estrategia adaptativa. En una primera aproximación a una escala evolutiva, se otorgan evidencias del vínculo hasta ahora tenue entre la cognición e historias de vida, entregando un claro apoyo a la relación entre longevidad, vida reproductiva y el tamaño del cerebro en mamíferos. La longevidad es el centro de muchas hipótesis respecto a las ventajas de desarrollar un cerebro grande, como por ejemplo en la hipótesis del buffer cognitivo y las respuestas flexibles frente a nuevos ambientes. En un segundo nivel, se abordan factores extrínsecos e intrínsecos que podrían explicar las diferencias individuales en innovación, un componente clave en la flexibilidad del comportamiento. Por medio de una aproximación experimental, se evalúan potenciales escenarios que podrían conducir a consistentes diferencias individuales en uno de los principales factores subyacentes a la innovación (i.e. la motivación), y el potencial control endocrino sobre estos escenarios. Posteriormente, con el objetivo de evaluar la respuesta de los animales frente a los cambios ambientales actuales, se explora la respuesta de los animales frente a una de las actividades humanas mas disruptivas sobre los ecosistemas, la urbanización. Por medio de un analisis filogenetico comparativo a nivel global en aves se abordan los mecanismos implicados en la perdida de biodiversidad observada en ambientes urbanos. Los resultados entregan evidencias sobre la importancia de procesos de dispersión local junto con el papel clave de los rasgos de historia de vida, pero en un sentido diferente al clasicamente pensado. Finalmente por medio de una revisión bibliográfica se entregan evidencias teóricas y empíricas que respaldan el rol clave de la flexibilidad del comportamiento en confrontar los desafíos de una vida urbana. La integración de estos resultados muestra cómo el pasado evolutivo contribuye a hacer frente a los retos ambientales actuales, y pone de relieve posibles consecuencias ante un planeta más cambiante que nunca.
Resumo:
Partint de les definicions usuals de Mesures de Semblança Quàntica (MSQ), es considera la dependència d'aquestes mesures respecte de la superposició molecular. Pel cas particular en qnè els sistemes comparats siguin una molècula i un Àtom i que les mesures es calculin amb l'aproximació EASA, les MSQ esdevenen funcions de les tres coordenades de l'espai. Mantenint fixa una de les tres coordenades, es pot representar fàcilment la variació del valor de semblança en un pla determinat, i obtenir els anomenats mapes de semblança. En aquest article, es comparen els mapes de semblança obtinguts amb diferents MSQ per a sistemes senzills
Resumo:
A través de la historia de la vida, gran parte de los organismos han desarrollado estrategias para responder a un mundo en constante cambio. Hoy en día, las actividades humanas producen cambios ambientales a una velocidad sin precedentes, lo cual se traduce en grandes desafíos para la persistencia de biodiversidad. Esta investigación evalúa las respuesta de los animales a los cambios ambientales enfocándose en la flexibilidad del comportamiento como estrategia adaptativa. En una primera aproximación a una escala evolutiva, se otorgan evidencias del vínculo hasta ahora tenue entre la cognición e historias de vida, entregando un claro apoyo a la relación entre longevidad, vida reproductiva y el tamaño del cerebro en mamíferos. La longevidad es el centro de muchas hipótesis respecto a las ventajas de desarrollar un cerebro grande, como por ejemplo en la hipótesis del buffer cognitivo y las respuestas flexibles frente a nuevos ambientes. En un segundo nivel, se abordan factores extrínsecos e intrínsecos que podrían explicar las diferencias individuales en innovación, un componente clave en la flexibilidad del comportamiento. Por medio de una aproximación experimental, se evalúan potenciales escenarios que podrían conducir a consistentes diferencias individuales en uno de los principales factores subyacentes a la innovación (i.e. la motivación), y el potencial control endocrino sobre estos escenarios. Posteriormente, con el objetivo de evaluar la respuesta de los animales frente a los cambios ambientales actuales, se explora la respuesta de los animales frente a una de las actividades humanas mas disruptivas sobre los ecosistemas, la urbanización. Por medio de un analisis filogenetico comparativo a nivel global en aves se abordan los mecanismos implicados en la perdida de biodiversidad observada en ambientes urbanos. Los resultados entregan evidencias sobre la importancia de procesos de dispersión local junto con el papel clave de los rasgos de historia de vida, pero en un sentido diferente al clasicamente pensado. Finalmente por medio de una revisión bibliográfica se entregan evidencias teóricas y empíricas que respaldan el rol clave de la flexibilidad del comportamiento en confrontar los desafíos de una vida urbana. La integración de estos resultados muestra cómo el pasado evolutivo contribuye a hacer frente a los retos ambientales actuales, y pone de relieve posibles consecuencias ante un planeta más cambiante que nunca.
Resumo:
In this paper a one-phase supercooled Stefan problem, with a nonlinear relation between the phase change temperature and front velocity, is analysed. The model with the standard linear approximation, valid for small supercooling, is first examined asymptotically. The nonlinear case is more difficult to analyse and only two simple asymptotic results are found. Then, we apply an accurate heat balance integral method to make further progress. Finally, we compare the results found against numerical solutions. The results show that for large supercooling the linear model may be highly inaccurate and even qualitatively incorrect. Similarly as the Stefan number β → 1&sup&+&/sup& the classic Neumann solution which exists down to β =1 is far from the linear and nonlinear supercooled solutions and can significantly overpredict the solidification rate.
Resumo:
In this paper, we give a new construction of resonant normal forms with a small remainder for near-integrable Hamiltonians at a quasi-periodic frequency. The construction is based on the special case of a periodic frequency, a Diophantine result concerning the approximation of a vector by independent periodic vectors and a technique of composition of periodic averaging. It enables us to deal with non-analytic Hamiltonians, and in this first part we will focus on Gevrey Hamiltonians and derive normal forms with an exponentially small remainder. This extends a result which was known for analytic Hamiltonians, and only in the periodic case for Gevrey Hamiltonians. As applications, we obtain an exponentially large upper bound on the stability time for the evolution of the action variables and an exponentially small upper bound on the splitting of invariant manifolds for hyperbolic tori, generalizing corresponding results for analytic Hamiltonians.
Resumo:
The "Europeanization" of non-EU countries' laws is predominantly seen as an "export" of the EU acquis, especially in the case of so-called "quasi-member" states such as Switzerland. Based on an examination of the Swiss experience, this paper highlights the flaws of this conceptualization: the Europeanization of Swiss Law is a highly differentiated phenomenon, encompassing several forms of approximation to EU Law. All of these forms fall short of an "export" of norms, and result in the creation of something new: a "Europeanized law" that is similar to, but qualitatively different from, EU Law. Another drawback of the "export" metaphor is the emphasis it places on the isomorphism of positive legislation. Europeanization goes deeper than that. As shown in this paper, it is a process of transformation involving not only positive law, but also legal thinking. The Swiss case demonstrates how significant such deeper transformations can be: the Europeanization of positive law has induced an alteration of the traditional canon of legal interpretation. It also demonstrates how problematic such transformations can be: the above-mentioned alteration has not given rise to a new and universally accepted canon of interpretation. This reflects the tension between the need for clear "rules of reference" for EU legal materials - which are required in order to restore coherence and predictability to an extensively Europeanized legal system - and the reluctance to give a legal value to foreign legal materials - which is rooted in a traditional understanding of the concept of "law". Such tension, in turn, shows what deep and difficult transformations are required in order to establish a viable model of legal integration outside supranational structures.