48 resultados para Transactional log


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A new expression for the characteristic function of log-spot in Heston model is presented. This expression more clearly exhibits its properties as an analytic characteristic function and allows us to compute the exact domain of the moment generating function. This result is then applied to the volatility smile at extreme strikes and to the control of the moments of spot. We also give a factorization of the moment generating function as product of Bessel type factors, and an approximating sequence to the law of log-spot is deduced.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When dealing with sustainability we are concerned with the biophysical as well as the monetary aspects of economic and ecological interactions. This multidimensional approach requires that special attention is given to dimensional issues in relation to curve fitting practice in economics. Unfortunately, many empirical and theoretical studies in economics, as well as in ecological economics, apply dimensional numbers in exponential or logarithmic functions. We show that it is an analytical error to put a dimensional unit x into exponential functions ( a x ) and logarithmic functions ( x a log ). Secondly, we investigate the conditions of data sets under which a particular logarithmic specification is superior to the usual regression specification. This analysis shows that logarithmic specification superiority in terms of least square norm is heavily dependent on the available data set. The last section deals with economists’ “curve fitting fetishism”. We propose that a distinction be made between curve fitting over past observations and the development of a theoretical or empirical law capable of maintaining its fitting power for any future observations. Finally we conclude this paper with several epistemological issues in relation to dimensions and curve fitting practice in economics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One feature of the modern nutrition transition is the growing consumption of animal proteins. The most common approach in the quantitative analysis of this change used to be the study of averages of food consumption. But this kind of analysis seems to be incomplete without the knowledge of the number of consumers. Data about consumers are not usually published in historical statistics. This article introduces a methodological approach for reconstructing consumer populations. This methodology is based on some assumptions about the diffusion process of foodstuffs and the modeling of consumption patterns with a log-normal distribution. This estimating process is illustrated with the specific case of milk consumption in Spain between 1925 and 1981. These results fit quite well with other data and indirect sources available showing that this dietary change was a slow and late process. The reconstruction of consumer population could shed a new light in the study of nutritional transitions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents an analysis of motor vehicle insurance claims relating to vehicle damage and to associated medical expenses. We use univariate severity distributions estimated with parametric and non-parametric methods. The methods are implemented using the statistical package R. Parametric analysis is limited to estimation of normal and lognormal distributions for each of the two claim types. The nonparametric analysis presented involves kernel density estimation. We illustrate the benefits of applying transformations to data prior to employing kernel based methods. We use a log-transformation and an optimal transformation amongst a class of transformations that produces symmetry in the data. The central aim of this paper is to provide educators with material that can be used in the classroom to teach statistical estimation methods, goodness of fit analysis and importantly statistical computing in the context of insurance and risk management. To this end, we have included in the Appendix of this paper all the R code that has been used in the analysis so that readers, both students and educators, can fully explore the techniques described

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción: El manejo quirúrgico de ciertas malignidades en el paciente anciano crea preocupación sobre la posibilidad de realizar cirugías agresivas y sus resultados. Este es el caso del paciente anciano con carcinoma hepatocelular donde se pueden suscitar difíciles decisiones terapéuticas. Comparamos los resultados obtenidos entre pacientes mayores y menores de 70 años de edad. Material y Métodos: Se realizaron 36 resecciones hepáticas curativas para tratar cáncer hepatocelular. Dividimos nuestra población en dos grupos (14 pacientes &70 y 22 mayores o igual a 70 años de edad) y comparamos su morbimortalidad, periodo libre de enfermedad y sobrevida global utilizando curvas de Kaplan Meir y prueba de Log rank. Además buscamos factores de mal pronósticos en la población. Resultados: Ambos grupos son similares en cuanto al estado pre-operatorio. El tiempo quirúrgico, tipo de procedimiento, estancia hospitalaria y morbimortalidad fueron similares. La sobrevida global para los pacientes jóvenes y seniles a 3 y 5 años fue 85,7% vs. 68,7% y 47,6% vs. 60% respectivamente (p=0,813). El periodo libre de enfermedad a 3 y 5 años fue de 69,3% vs. 35,2% y 39,6% vs. 23,4% respectivamente (p=0,539). El análisis multivariado reveló la enfermedad multicéntrica y la alfa-feto-protein elevada como factores pronósticos independientes de una sobrevida libre de enfermedad y global más cortos. Conclusión: Los pacientes mayores de 70 años con carcinoma hepatocelular deben ser manejados en una manera similar a pacientes más jóvenes. Hay que tomar en cuenta factores de mal pronóstico como la multicentricidad y alfa-feto-proteína elevadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La empresa Eatout quiere crear un Cuadro de Mando desde el que llevar el control de ventas de los restaurantes. Actualmente se comprueba qué locales faltan por cerrar la jornada de ventas y se lleva un registro de los errores desde una hoja de cálculo. Con este proyecto se pretende agilizar y facilitar la gestión de ventas, y analizar las posibles causas de esas faltas. Para ello, se creará una aplicación en .NET desde la que gestionarán los cierres que falten por realizar en una jornada indicando cuál ha sido el motivo. Después se analizarán estos datos a través de la herramienta de Business Objects de SAP creando un Cuadro de Mando.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tolerancia a fallos es una línea de investigación que ha adquirido una importancia relevante con el aumento de la capacidad de cómputo de los súper-computadores actuales. Esto es debido a que con el aumento del poder de procesamiento viene un aumento en la cantidad de componentes que trae consigo una mayor cantidad de fallos. Las estrategias de tolerancia a fallos actuales en su mayoría son centralizadas y estas no escalan cuando se utiliza una gran cantidad de procesos, dado que se requiere sincronización entre todos ellos para realizar las tareas de tolerancia a fallos. Además la necesidad de mantener las prestaciones en programas paralelos es crucial, tanto en presencia como en ausencia de fallos. Teniendo en cuenta lo citado, este trabajo se ha centrado en una arquitectura tolerante a fallos descentralizada (RADIC – Redundant Array of Distributed and Independant Controllers) que busca mantener las prestaciones iniciales y garantizar la menor sobrecarga posible para reconfigurar el sistema en caso de fallos. La implementación de esta arquitectura se ha llevado a cabo en la librería de paso de mensajes denominada Open MPI, la misma es actualmente una de las más utilizadas en el mundo científico para la ejecución de programas paralelos que utilizan una plataforma de paso de mensajes. Las pruebas iniciales demuestran que el sistema introduce mínima sobrecarga para llevar a cabo las tareas correspondientes a la tolerancia a fallos. MPI es un estándar por defecto fail-stop, y en determinadas implementaciones que añaden cierto nivel de tolerancia, las estrategias más utilizadas son coordinadas. En RADIC cuando ocurre un fallo el proceso se recupera en otro nodo volviendo a un estado anterior que ha sido almacenado previamente mediante la utilización de checkpoints no coordinados y la relectura de mensajes desde el log de eventos. Durante la recuperación, las comunicaciones con el proceso en cuestión deben ser retrasadas y redirigidas hacia la nueva ubicación del proceso. Restaurar procesos en un lugar donde ya existen procesos sobrecarga la ejecución disminuyendo las prestaciones, por lo cual en este trabajo se propone la utilización de nodos spare para la recuperar en ellos a los procesos que fallan, evitando de esta forma la sobrecarga en nodos que ya tienen trabajo. En este trabajo se muestra un diseño propuesto para gestionar de un modo automático y descentralizado la recuperación en nodos spare en un entorno Open MPI y se presenta un análisis del impacto en las prestaciones que tiene este diseño. Resultados iniciales muestran una degradación significativa cuando a lo largo de la ejecución ocurren varios fallos y no se utilizan spares y sin embargo utilizándolos se restablece la configuración inicial y se mantienen las prestaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolupament d'una aplicació web per a la recollida i classificació d'informació en entorns virtuals d'interacció síncrona: xat + classificació automàtica de les converses generades + les seves pròpies interaccions en funció d'unes categories existents + fitxers log.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Treball final de carrera sobre el desenvolupament d'una aplicació web que comunica de manera síncrona a membres d'un grup i registra les converses generades en un log classificat per categoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una empresa ens contracta ja que té la necessitat de controlar la gestió del manteniment de tots els aparells que té instal·lats en els 32 centres de treball de que disposa (com poden ser extintors, calderes, aire condicionat, fotocopiadores, escàners, impressores, plotters, etc.), i el manteniment el porten a terme diferents empreses de serveis especialitzades. Aquesta gestió i l'accés a tota la informació necessària es realitzarà mitjançant procediments de Base de Dades.La Base de Dades que es crearà ha de ser capaç de portar a terme la gestió de manteniment de tot el maquinari existent en cadascun dels centres de l'empresa, i ha de disposar d'eines que permetin, per una banda, tractar correctament la informació referent als diferents tipus de manteniment (preventiu, correctiu, adaptatiu) que es pot aplicar als diferents equips, i per l'altra, que li permetin incorporar a la Base de Dades aquelles necessites futures, és a dir, que li permetin ser escalable.Aquesta Base de Dades també disposarà de mecanismes que li permetin tractar possibles problemes d'integració amb la resta del sistema, com per exemple, la creació d'un log de les diferents accions fetes amb la Base de Dades, o diferents mecanismes per fer diversos tests de les funcionalitats del sistema.A part de la gestió de manteniment, es disposarà també un magatzem de dades (DataWarehouse) per tal de poder analitzar la informació que conté la Base de Dades anteriorment esmentada, amb l'objectiu d'ajudar a prendre decisions sobre les dades existents en un moment donat.El projecte està dividit en dos blocs principals, on el primer es dissenyarà i s'implementarà una Base de Dades relacional, amb la seva definició de requeriments, l'anàlisi i disseny, desenvolupament de procediments de base de dades i proves per testejar el correcte funcionament, mentre que el segon es dissenyarà i s'implementarà un magatzem de dades (DataWarehouse) per explotar les dades existents en la base de dades relacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El present projecte examina la utilització d'eines de gestió de logs en entorns d'explotació de sistemes informàtics. L'objectiu del projecte és doble: proporcionar una visió general dels sistemes de gestió de logs i dur a terme una avaluació de productes que realitzin aquesta gestió de logs usant un mètode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquesta memòria sintetitza el treball de desenvolupament d¿una aplicació per realitzar el filtrat de pàgines web.Els objectius principals del projecte han estat d¿una banda obtenir una aplicació que permeti realitzar el filtrat i de l¿altra aprofitar el projecte per construir un model complet de desenvolupament de programari per a industrialitzar futurs projectes. En quant a la metodologia, s¿ha emprat el cicle de vida RUP de forma incremental en les tres parts de l¿aplicació, (proxy, filtres i log). En la seqüència de quatre fases s¿executen iterativament una sèrie de processos. Pel que fa al producte obtingut, es tracta d¿un servidor proxy, que realitza la funció de filtrat de pàgines web, mitjançant dues utilitats, ¿llista negra¿ d¿adreces i ¿llista negra¿ de continguts, ames de disposar d¿un registre d¿activitat log.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectiu fonamental d'aquest TFC és la creació i posada en funcionament d'un magatzem de dades, partint de la informació procedent de bases de dades transaccionals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Treball centrat en el disseny i implementació d'una base de dades relacional (BD) per a la gestió d'incidències d'electrodomèstics, atenent als requeriments inicialment establerts. Inclou els procediments emmagatzemats, els sistema de diari (log). També es crea un magatzem de dades (DWH) i el procés d'extracció, transformació i càrrega (ETL) entre la BD i el DWH. Finalment es creen unes consultes específiques del DWH i una interfície HTML per a realitzar-les des d'un navegador i un servidor web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de diferents enquestes de satisfacció institucional i de l'anàlisi de l'arxiu 'log' del servidor de la biblioteca respecte a l'ús i al comportament dels usuaris, es va detectar que cada cop era més complex accedir als continguts i serveis de manera proporcional al creixement d'aquests darrers i de l'augment del nombre d'usuaris. El creixement dels recursos i de les diferents aplicacions desenvolupats a la Biblioteca Virtual de la UOC (BUOC) va fer necessari la selecció i la implementació d'un motor de cerca que facilités de manera global l'accés als recursos d'informació i als serveis oferts a la comunitat virtual de la UOC d'acord amb la tipologia d'usuari, l'idioma i el seu entorn d'aprenentatge. En aquest article s'exposa el procés d'anàlisi de diferents productes i la implementació de Verity a la BUOC amb els desenvolupaments realitzats en les diferents aplicacions perquè el motor de cerca pugui fer la seva funció.