73 resultados para Probabilitats
Resumo:
Tradicionalment, s’ha considerat que les característiques ètniques d’un país són un factor rellevant per a l’esclat d’una guerra civil. Han estat objecte d’una anàlisi extensa mitjançant índexs de fraccionament ètnic (quants grups diferents hi ha) i de polarització ètnica (el nombre i la mida relativa dels grups), però sense resultats concloents. Un aspecte que interiorment s’havia passat per alt és la distribució física dels grups dins d’un país. Aquest article selecciona un índex de segregació i s’analitza la relació amb l’esclat de guerres civils a través de tres bases de dades consolidades, dues de les quals amb un llindar alt de víctimes mortals i una altra amb un llindar baix. Aquesta recerca revela que l’índex de segregació és significatiu per predir l’inici d’una guerra civil. Tot i que la segregació forçosament ha de dependre del fraccionament i que probablement és condicionada per la polarització, l’anàlisi mostra que, un cop s’introdueix la segregació com a variable de control, el fraccionament i la polarització deixen de ser significatius a l’hora de calcular les probabilitats de conflicte civil a través de les bases de dades de llindar alt. L’article sosté que els efectes de la segregació es desenvolupen a través de la separació física respecte d’altres grups ètnics, la proximitat física dins d’un mateix grup i l’homogeneïtat en el si d’un territori, i que cada un d’aquests factors influeix tant sobre la motivació per rebel·lar-se com sobre la viabilitat de la rebel·lió. La significativitat de la segregació mostra que l’impacte de les característiques ètniques sobre el conflicte és complex i que el concepte de segregació aporta una dimensió útil a l’especificació de l’etnicitat.
Resumo:
En el marc de la intervenció penitenciària amb agressors sexuals, té una especial rellevància la predicció de risc del seu comportament futur, atenent les greus repercussions que poden arribar a tenir les reincidències, tant per a les possibles víctimes com des de la perspectiva de l’impacte mediàtic i pànic moral que generen. En el context internacional, gran part de l’esforç investigador en aquesta matèria ha anat adreçat a l’estandardització de protocols per avaluar el risc de reincidència d’aquests subjectes i orientar la presa de decisions envers ells i la seva vida fora del règim penitenciari. Un dels instruments més novedosos per a la predicció del risc d’agressió sexual és el Sexual Violence Risc – 20 (SVR-20) desenvolupat per un equip d’investigadors canadencs. El treball que aquí es presenta s’inscriu en el marc de l’aplicació pràctica d’aquests procediments predictius al nostre país. L’objectiu principal és aplicar l’SVR-20, de manera retrospectiva, a una mostra d’agressors sexuals per avaluar la capacitat predictiva d’aquest instrument i, així, poder anticipar la possible reincidència dels subjectes. Per aconseguir aquest objectiu, la puntuació total del SVR-20 ha estat correlacionada amb la reincidència veritable, considerant el tractament com una variable a tenir en compte. La regressió logística ha estat utilitzada per examinar el calibratge del model. Aquesta anàlisi avalua el grau de correspondència entre les probabilitats predites (de reincidència) i la reincidència esdevinguda. L’SVR-20 prediu correctament el 55% dels no-reincidents i el 16% dels reincidents. Podem afirmar que aquest model prediu molt millor la reincidència que la no-reincidència. A més, la predicció millora quan hi incloem la variable de tractament. Aquest estudi és el primer a Catalunya que avalua la validesa predictiva d’un instrument d’avaluació del risc de violència sexual. Futures recerques haurien de centrar-se a estimar un punt de tall per a l’SVR-20 que permeti classificar els subjectes de risc de reincidència dels subjectes segurs.
Resumo:
Puesto que es muy importante la predicción del riesgo de reincidencia en agresores sexuales, la investigación que aquí se presenta tiene como objetivo la aplicación de uno de los instrumentos más novedosos para la predicción del riesgo de agresión sexual, el Sexual Violence Risc – 20 (SVR-20) desarrollado por un equipo de investigadores canadienses, de manera retrospectiva, a una muestra de agresores sexuales para evaluar la capacidad predictiva de este instrumento y así, poder anticipar la posible reincidencia de los sujetos
Resumo:
El principal objeto de esta investigación es determinar y evaluar si la evolución o transición hacia formas cerradas o abiertas de gobernar -autocracias y democracias- ha llevado aparejada una menor o mayor contribución a la calidad del medio ambiente. La conclusión es clara, los nuevos gobiernos democráticos tienen más probabilidades de responder a los intereses medioambientales y, por lo tanto, son más propensos a respaldar las convenciones internacionales que las autocracias.
Resumo:
Actualment l'ús de la criptografia ha arribat a ser del tot generalitzat, tant en els processos de transmissió i intercanvi segur d'informació, com en l'emmagatzematge secret de dades. Es tracta d'una disciplina els fonaments teòrics de la qual són en l'Àlgebra i en el Càlcul de Probabilitats. La programació d'interfícies gràfiques s'ha realitzat en Java i amb la manipulació, tot i que molt elemental, de documents XML.
Resumo:
El desarrollo de este Trabajo, identificado por los diferentes capítulos que lo componen, se ha definido siguiendo un hilo conductor que nos permite desgranar la Gestión de Proyectos informáticos, y de esta manera poder hacer una mejor penetración en su fase de definición, para poder aportar mejoras en su enfoque más comercial.Esta fase engloba áreas tales como definir el objeto del proyecto, fijar objetivos, acordar presupuestos, etc., es decir, esta fase de definición del proyecto representa su mismo fundamento. Por lo tanto, la manera en qué se lleve a cabo, marcará la pauta para el resto del proyecto. Profundizando en la gestión de Proyectos podemos evidenciar que la fase de definición se puede considerar una de las fases más importante de cualquier proyecto. A menos que se lleve a cabo correctamente, el proyecto tiene pocas probabilidades de éxito.Por lo tanto, el planteamiento de este Trabajo, está basado en un guión que da una visión general de la Gestión de Proyectos, para posteriormente profundizar en el enfoque más comercial de la fase de definición, de una manera natural.
Resumo:
The preceding two editions of CoDaWork included talks on the possible considerationof densities as infinite compositions: Egozcue and D´ıaz-Barrero (2003) extended theEuclidean structure of the simplex to a Hilbert space structure of the set of densitieswithin a bounded interval, and van den Boogaart (2005) generalized this to the setof densities bounded by an arbitrary reference density. From the many variations ofthe Hilbert structures available, we work with three cases. For bounded variables, abasis derived from Legendre polynomials is used. For variables with a lower bound, westandardize them with respect to an exponential distribution and express their densitiesas coordinates in a basis derived from Laguerre polynomials. Finally, for unboundedvariables, a normal distribution is used as reference, and coordinates are obtained withrespect to a Hermite-polynomials-based basis.To get the coordinates, several approaches can be considered. A numerical accuracyproblem occurs if one estimates the coordinates directly by using discretized scalarproducts. Thus we propose to use a weighted linear regression approach, where all k-order polynomials are used as predictand variables and weights are proportional to thereference density. Finally, for the case of 2-order Hermite polinomials (normal reference)and 1-order Laguerre polinomials (exponential), one can also derive the coordinatesfrom their relationships to the classical mean and variance.Apart of these theoretical issues, this contribution focuses on the application of thistheory to two main problems in sedimentary geology: the comparison of several grainsize distributions, and the comparison among different rocks of the empirical distribution of a property measured on a batch of individual grains from the same rock orsediment, like their composition
Resumo:
The literature related to skew–normal distributions has grown rapidly in recent yearsbut at the moment few applications concern the description of natural phenomena withthis type of probability models, as well as the interpretation of their parameters. Theskew–normal distributions family represents an extension of the normal family to whicha parameter (λ) has been added to regulate the skewness. The development of this theoreticalfield has followed the general tendency in Statistics towards more flexible methodsto represent features of the data, as adequately as possible, and to reduce unrealisticassumptions as the normality that underlies most methods of univariate and multivariateanalysis. In this paper an investigation on the shape of the frequency distribution of thelogratio ln(Cl−/Na+) whose components are related to waters composition for 26 wells,has been performed. Samples have been collected around the active center of Vulcanoisland (Aeolian archipelago, southern Italy) from 1977 up to now at time intervals ofabout six months. Data of the logratio have been tentatively modeled by evaluating theperformance of the skew–normal model for each well. Values of the λ parameter havebeen compared by considering temperature and spatial position of the sampling points.Preliminary results indicate that changes in λ values can be related to the nature ofenvironmental processes affecting the data
Resumo:
This paper examines a dataset which is modeled well by thePoisson-Log Normal process and by this process mixed with LogNormal data, which are both turned into compositions. Thisgenerates compositional data that has zeros without any need forconditional models or assuming that there is missing or censoreddata that needs adjustment. It also enables us to model dependenceon covariates and within the composition
Resumo:
A joint distribution of two discrete random variables with finite support can be displayed as a two way table of probabilities adding to one. Assume that this table hasn rows and m columns and all probabilities are non-null. This kind of table can beseen as an element in the simplex of n · m parts. In this context, the marginals areidentified as compositional amalgams, conditionals (rows or columns) as subcompositions. Also, simplicial perturbation appears as Bayes theorem. However, the Euclideanelements of the Aitchison geometry of the simplex can also be translated into the tableof probabilities: subspaces, orthogonal projections, distances.Two important questions are addressed: a) given a table of probabilities, which isthe nearest independent table to the initial one? b) which is the largest orthogonalprojection of a row onto a column? or, equivalently, which is the information in arow explained by a column, thus explaining the interaction? To answer these questionsthree orthogonal decompositions are presented: (1) by columns and a row-wise geometric marginal, (2) by rows and a columnwise geometric marginal, (3) by independenttwo-way tables and fully dependent tables representing row-column interaction. Animportant result is that the nearest independent table is the product of the two (rowand column)-wise geometric marginal tables. A corollary is that, in an independenttable, the geometric marginals conform with the traditional (arithmetic) marginals.These decompositions can be compared with standard log-linear models.Key words: balance, compositional data, simplex, Aitchison geometry, composition,orthonormal basis, arithmetic and geometric marginals, amalgam, dependence measure,contingency table
Resumo:
L’objectiu d’aquest projecte és dotar a Servicleop d’un programari que li permeti millorar la gestió dels serveis de retirada de vehicles de la via pública, que actualment s’efectua a través del canal de veu. Això s’aconseguirà mitjançant l’ús de cartografia digital i localització GPS, que permetrà optimitzar l’assignació de retirades al saber quina grua es troba en millor disposició, i PDAs que es comunicaran amb un centre de control a través de GPRS des del qual s’assignaran aquest serveis. S’oferiran facilitats sempre que sigui possible en la introducció de dades, disminuint les probabilitats de cometre errors, i tot el procés quedarà enregistrat automàticament en base de dades per a poder generar estadístiques o informes. el projecte parteix d’un altre projecte intern de Knosos anomenat Micronav.Net Serveis, en el qual també he treballat molt activament i que ofereix una solució genèrica similar a la requerida per Servicleop, empresa a la que va destinada el sistema que es presenta en aquest projecte final de carrera
Resumo:
Aproximadament un 40% dels subjectes de la mostra de 1.14a subjectes no han arribat a ser considerats per a l’alliberament condicional, tot i haver complert les 3/4 parts de la condemna. La modalitat de llibertat condicional ordinària en complir les ¾ parts de la condemna predomina sobre la resta de modalitats d’alliberament. En el cas d’aquest estudi, només un 7,6% havia accedit al benefici de la llibertat condicional avançada. Respecte a la incidència de les variables personals en l’accés a la llibertat condicional, ser dona, tenir nacionalitat espanyola i un nivell molt baix o un nivell alt de formació influeix positivament en l’obtenció de la llibertat condicional. La variable nacionalitat estrangera té una influència molt negativa en la concessió de la llibertat condicional. Respecte a les variables penals, els delictes de lesions, seguits dels delictes contra la propietat, com tots els tipus de robatoris, tenen els percentatges de denegació de la llibertat condicional més alts. Respecte a les variables penitenciàries, es conclou que com més obert sigui el règim inicialment aplicat, més probabilitats hi ha de sortir en llibertat condicional. Les activitats realitzades durant el compliment de la condemna no semblen tenir, en general, una incidència positiva en la concessió de la llibertat condicional. En aquest sentit, es podria dir que ja a l’inici de la condemna es pot determinar les possibilitats que es tindran de sortir en llibertat condicional, independentment dels progressos o canvis que es realitzin durant el compliment de la condemna. Les variables més significatives en la concessió de la llibertat condicional, segons l’anàlisi de regressió logística, són 4: l’habitualitat, els dies totals de sortida en funció del temps, el temps passat com a preventiu i el nombre de faltes greus. La regressió logística ha permès construir una equació amb aquestes 4 variables independents, que dibuixa el perfil d’un intern en llibertat condicional, i també descriu quins són els interns susceptibles de gaudir de la llibertat condicional o no, amb la probabilitat d’encertar en 80 de cada 100 casos.
Resumo:
We study the zero set of random analytic functions generated by a sum of the cardinal sine functions which form an orthogonal basis for the Paley-Wiener space. As a model case, we consider real-valued Gaussian coefficients. It is shown that the asymptotic probability that there is no zero in a bounded interval decays exponentially as a function of the length.
Resumo:
Quantitative or algorithmic trading is the automatization of investments decisions obeying a fixed or dynamic sets of rules to determine trading orders. It has increasingly made its way up to 70% of the trading volume of one of the biggest financial markets such as the New York Stock Exchange (NYSE). However, there is not a signi cant amount of academic literature devoted to it due to the private nature of investment banks and hedge funds. This projects aims to review the literature and discuss the models available in a subject that publications are scarce and infrequently. We review the basic and fundamental mathematical concepts needed for modeling financial markets such as: stochastic processes, stochastic integration and basic models for prices and spreads dynamics necessary for building quantitative strategies. We also contrast these models with real market data with minutely sampling frequency from the Dow Jones Industrial Average (DJIA). Quantitative strategies try to exploit two types of behavior: trend following or mean reversion. The former is grouped in the so-called technical models and the later in the so-called pairs trading. Technical models have been discarded by financial theoreticians but we show that they can be properly cast into a well defined scientific predictor if the signal generated by them pass the test of being a Markov time. That is, we can tell if the signal has occurred or not by examining the information up to the current time; or more technically, if the event is F_t-measurable. On the other hand the concept of pairs trading or market neutral strategy is fairly simple. However it can be cast in a variety of mathematical models ranging from a method based on a simple euclidean distance, in a co-integration framework or involving stochastic differential equations such as the well-known Ornstein-Uhlenbeck mean reversal ODE and its variations. A model for forecasting any economic or financial magnitude could be properly defined with scientific rigor but it could also lack of any economical value and be considered useless from a practical point of view. This is why this project could not be complete without a backtesting of the mentioned strategies. Conducting a useful and realistic backtesting is by no means a trivial exercise since the \laws" that govern financial markets are constantly evolving in time. This is the reason because we make emphasis in the calibration process of the strategies' parameters to adapt the given market conditions. We find out that the parameters from technical models are more volatile than their counterpart form market neutral strategies and calibration must be done in a high-frequency sampling manner to constantly track the currently market situation. As a whole, the goal of this project is to provide an overview of a quantitative approach to investment reviewing basic strategies and illustrating them by means of a back-testing with real financial market data. The sources of the data used in this project are Bloomberg for intraday time series and Yahoo! for daily prices. All numeric computations and graphics used and shown in this project were implemented in MATLAB^R scratch from scratch as a part of this thesis. No other mathematical or statistical software was used.
Resumo:
Power law distributions, a well-known model in the theory of real random variables, characterize a wide variety of natural and man made phenomena. The intensity of earthquakes, the word frequencies, the solar ares and the sizes of power outages are distributed according to a power law distribution. Recently, given the usage of power laws in the scientific community, several articles have been published criticizing the statistical methods used to estimate the power law behaviour and establishing new techniques to their estimation with proven reliability. The main object of the present study is to go in deep understanding of this kind of distribution and its analysis, and introduce the half-lives of the radioactive isotopes as a new candidate in the nature following a power law distribution, as well as a \canonical laboratory" to test statistical methods appropriate for long-tailed distributions.