272 resultados para OMXH Small Cap


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A class of composite estimators of small area quantities that exploit spatial (distancerelated)similarity is derived. It is based on a distribution-free model for the areas, but theestimators are aimed to have optimal design-based properties. Composition is applied alsoto estimate some of the global parameters on which the small area estimators depend.It is shown that the commonly adopted assumption of random effects is not necessaryfor exploiting the similarity of the districts (borrowing strength across the districts). Themethods are applied in the estimation of the mean household sizes and the proportions ofsingle-member households in the counties (comarcas) of Catalonia. The simplest version ofthe estimators is more efficient than the established alternatives, even though the extentof spatial similarity is quite modest.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A national survey designed for estimating a specific population quantity is sometimes used for estimation of this quantity also for a small area, such as a province. Budget constraints do not allow a greater sample size for the small area, and so other means of improving estimation have to be devised. We investigate such methods and assess them by a Monte Carlo study. We explore how a complementary survey can be exploited in small area estimation. We use the context of the Spanish Labour Force Survey (EPA) and the Barometer in Spain for our study.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper investigates the comparative performance of five small areaestimators. We use Monte Carlo simulation in the context of boththeoretical and empirical populations. In addition to the direct andindirect estimators, we consider the optimal composite estimator withpopulation weights, and two composite estimators with estimatedweights: one that assumes homogeneity of within area variance andsquare bias, and another one that uses area specific estimates ofvariance and square bias. It is found that among the feasibleestimators, the best choice is the one that uses area specificestimates of variance and square bias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

It is commonly argued that in recent years pharmaceutical companies have directed theirR&D towards small improvements of existing compounds instead of more risky drastic innovations. In this paper we show that the proliferation of these small innovations is likely to be linked to the lack of market sensitivity of a part of the demand to changes in prices. Compared to their social contribution, small innovations are relatively more profitable than large ones because they are targeted to the smaller but more inelastic part of the demand. We also study the effect of regulatory instruments such as price ceilings, copayments and reference prices and extend the analysis to competition in research.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a closed economy context there is common agreement on price inflation stabilization being one of the objects of monetary policy. Moving to an open economy context gives rise to the coexistence of two measures of inflation: domestic inflation (DI) and consumer price inflation (CPI). Which one of the two measures should be the target variable? This is the question addressed in this paper. In particular, I use a small open economy model to show that once sticky wages indexed to past CPI inflation are introduced, a complete inward looking monetary policy is no more optimal. I first, derive a loss function from a secondorder approximation of the utility function and then, I compute the fully optimalmonetary policy under commitment. Then, I use the optimal monetary policy as a benchmark to compare the performance of different monetary policy rules. The main result is that once a positive degree of indexation is introduced in the model the rule performing better (among the Taylor type rules considered) is the one targeting wage inflation and CPI inflation. Moreover this rule delivers results very close to the one obtained under the fully optimal monetary policy with commitment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudi de les estructures i característiques petrològiques de les aplites que es localitzen al litoral entre el Cap Roig i el Far de Sant Sebastià (Llafranc, Girona)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents a differential synthetic apertureradar (SAR) interferometry (DIFSAR) approach for investigatingdeformation phenomena on full-resolution DIFSAR interferograms.In particular, our algorithm extends the capabilityof the small-baseline subset (SBAS) technique that relies onsmall-baseline DIFSAR interferograms only and is mainly focusedon investigating large-scale deformations with spatial resolutionsof about 100 100 m. The proposed technique is implemented byusing two different sets of data generated at low (multilook data)and full (single-look data) spatial resolution, respectively. Theformer is used to identify and estimate, via the conventional SBAStechnique, large spatial scale deformation patterns, topographicerrors in the available digital elevation model, and possibleatmospheric phase artifacts; the latter allows us to detect, onthe full-resolution residual phase components, structures highlycoherent over time (buildings, rocks, lava, structures, etc.), as wellas their height and displacements. In particular, the estimation ofthe temporal evolution of these local deformations is easily implementedby applying the singular value decomposition technique.The proposed algorithm has been tested with data acquired by theEuropean Remote Sensing satellites relative to the Campania area(Italy) and validated by using geodetic measurements.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des dels inicis dels ordinadors com a màquines programables, l’home ha intentat dotar-los de certa intel•ligència per tal de pensar o raonar el més semblant possible als humans. Un d’aquests intents ha sigut fer que la màquina sigui capaç de pensar de tal manera que estudiï jugades i guanyi partides d’escacs. En l’actualitat amb els actuals sistemes multi tasca, orientat a objectes i accés a memòria i gràcies al potent hardware del que disposem, comptem amb una gran varietat de programes que es dediquen a jugar a escacs. Però no hi ha només programes petits, hi ha fins i tot màquines senceres dedicades a calcular i estudiar jugades per tal de guanyar als millors jugadors del món. L’objectiu del meu treball és dur a terme un estudi i implementació d’un d’aquests programes, per això es divideix en dues parts. La part teòrica o de l’estudi, consta d’un estudi dels sistemes d’intel•ligència artificial que es dediquen a jugar a escacs, estudi i cerca d’una funció d’avaluació vàlida i estudi dels algorismes de cerca. La part pràctica del treball es basa en la implementació d’un sistema intel•ligent capaç de jugar a escacs amb certa lògica. Aquesta implementació es porta a terme amb l’ajuda de les llibreries SDL, utilitzant l’algorisme minimax amb poda alfa-beta i codi c++. Com a conclusió del projecte m’agradaria remarcar que l’estudi realitzat m’ha deixat veure que crear un joc d’escacs no era tan fàcil com jo pensava però m’ha aportat la satisfacció d’aplicar tot el que he après durant la carrera i de descobrir moltes altres coses noves.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les tendencies del mercat actual i futur obliguen a les empreses a ser cada vegada més competitives. Tota empresa que desitgi competir en el mercat actual ha de considerar la informació com un dels seus principals actius. Per aquesta raó, és necessari que l’empresa disposi dels sistemes d’informació adequats per ser gestionada. En les pimes ( petites i mitjanes empreses ), i en la majoria dels casos, la seva informació es troba repartida en diversos aplicatius informàtifcs. Això comporta principalment una duplicitat de dades, costos de manteniment i possibles errades en la informació. Dins del sector de les pimes, es troben empreses contructores d’un volum petit o mig, les quals enmagatzemen molta informació tècnica i de planificació per desemvolupar els seus projectes. Aquesta necessitat els hi suposa, tenir un aplicatiu eficient per la gestió i seguiment de la producció de les seves tasques i per altra banda l’aplicatiu necessari com qualsevol pime a nivell administratiu i comptable. L’objectiu principal d’aquest treball és generar un aplicatiu que integri la informació administrativa, comptable i tècnica per una empresa constructora. Amb l’assoliment d’aquest objectiu l’empresa constructora guanya temps en l’entrada i accés a les dades, evita la seva duplicitat i redueix el seu manteniment. En resum, redueix els costos de l’empresa i augmenta la seva seguretat en la informació. Un el mercat, existeixen aplicatius anomenats ERP ( Enterprise resource planning o sistemes de planificació de recursos ) els quals la seva gran virtud es la integració de les dades. Aprofitant aquests aplicatius i seleccionant-ne el més adequat, s’ha generat la part de gestió i planificació necessària per l’empresa constructora integrant-la i personalitzant-la en els processos existents de l’aplicació ( comptabilitat, ventes, compres, recursos humans, magatzems, etc… ) Entre les conclusions més rellevants obtingudes en aquest treball, voldriem destacar la millora i reducció d’entrada, accés i manteniment de la informació, l’històric que proporciona l’eina i per tan la millora de la gestío i planificació de l’empresa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La evolución de peso en los períodos de lactación y transición de 583 lechones fue estudiada mediante un análisis estadístico, evaluando el efecto de la suplementación con ácidos grasos de cadena media (AGCM) en lechones con poco peso al nacimiento. 188 de los 375 lechones que nacieron con un peso al nacimiento (PN) &1250 g recibieron 3mL de AGCM cada 24 h durante los primeros 3 días de vida; su peso medio al destete (día 28) fue inferior respecto al grupo control (lechones no suplementados) (-114,17 g). No obstante, 106 de los 180 lechones nacidos con un PN &1000 g fueron suplementados, y su peso medio al destete y a finales de transición (día 63) fue superior respecto al grupo control (destete: +315,16 g; día 63: +775,47 g). Finalmente, los lechones suplementados con PN&800 g tuvieron los peores resultados: su diferencia de peso medio al destete fue de -177,58 g respecto al grupo control. Por lo tanto, en esta prueba fueron estudiados los lechones con un PN entre 800 y 999 g porque el grupo suplementado al destete tuvo una diferencia de peso medio considerable respecto al grupo control:+511,58 g. Asimismo, considerando una probabilidad de error inferior a 0,05, no hubieron diferencias significativas en las diferentes categorías de PN analizadas. De todas maneras, es importante destacar el alto grado de significación en la suplementación con AGCM en lechones con PN entre 800 y 999g (P=0,059). Por otra parte, el PN del grupo suplementado con PN&1000 g fue inferior que el del grupo no suplementado con PN&1000 g; esta diferencia de PN fue significativa (P=0,004) y como consecuencia el grado de significación en la suplementación con AGCM en lechones con PN entre 800 y 999 g fue inferior al esperado. Además, en esta prueba se incluyeron algunos resultados generales y también un análisis simple de supervivencia, aunque no era el objetivo principal