810 resultados para Mètodes de simulació
Resumo:
Most of economic literature has presented its analysis under the assumption of homogeneous capital stock.However, capital composition differs across countries. What has been the pattern of capital compositionassociated with World economies? We make an exploratory statistical analysis based on compositional datatransformed by Aitchinson logratio transformations and we use tools for visualizing and measuring statisticalestimators of association among the components. The goal is to detect distinctive patterns in the composition.As initial findings could be cited that:1. Sectorial components behaved in a correlated way, building industries on one side and , in a lessclear view, equipment industries on the other.2. Full sample estimation shows a negative correlation between durable goods component andother buildings component and between transportation and building industries components.3. Countries with zeros in some components are mainly low income countries at the bottom of theincome category and behaved in a extreme way distorting main results observed in the fullsample.4. After removing these extreme cases, conclusions seem not very sensitive to the presence ofanother isolated cases
Resumo:
The statistical analysis of literary style is the part of stylometry that compares measurable characteristicsin a text that are rarely controlled by the author, with those in other texts. When thegoal is to settle authorship questions, these characteristics should relate to the author’s style andnot to the genre, epoch or editor, and they should be such that their variation between authors islarger than the variation within comparable texts from the same author.For an overview of the literature on stylometry and some of the techniques involved, see for exampleMosteller and Wallace (1964, 82), Herdan (1964), Morton (1978), Holmes (1985), Oakes (1998) orLebart, Salem and Berry (1998).Tirant lo Blanc, a chivalry book, is the main work in catalan literature and it was hailed to be“the best book of its kind in the world” by Cervantes in Don Quixote. Considered by writterslike Vargas Llosa or Damaso Alonso to be the first modern novel in Europe, it has been translatedseveral times into Spanish, Italian and French, with modern English translations by Rosenthal(1996) and La Fontaine (1993). The main body of this book was written between 1460 and 1465,but it was not printed until 1490.There is an intense and long lasting debate around its authorship sprouting from its first edition,where its introduction states that the whole book is the work of Martorell (1413?-1468), while atthe end it is stated that the last one fourth of the book is by Galba (?-1490), after the death ofMartorell. Some of the authors that support the theory of single authorship are Riquer (1990),Chiner (1993) and Badia (1993), while some of those supporting the double authorship are Riquer(1947), Coromines (1956) and Ferrando (1995). For an overview of this debate, see Riquer (1990).Neither of the two candidate authors left any text comparable to the one under study, and thereforediscriminant analysis can not be used to help classify chapters by author. By using sample textsencompassing about ten percent of the book, and looking at word length and at the use of 44conjunctions, prepositions and articles, Ginebra and Cabos (1998) detect heterogeneities that mightindicate the existence of two authors. By analyzing the diversity of the vocabulary, Riba andGinebra (2000) estimates that stylistic boundary to be near chapter 383.Following the lead of the extensive literature, this paper looks into word length, the use of the mostfrequent words and into the use of vowels in each chapter of the book. Given that the featuresselected are categorical, that leads to three contingency tables of ordered rows and therefore tothree sequences of multinomial observations.Section 2 explores these sequences graphically, observing a clear shift in their distribution. Section 3describes the problem of the estimation of a suden change-point in those sequences, in the followingsections we propose various ways to estimate change-points in multinomial sequences; the methodin section 4 involves fitting models for polytomous data, the one in Section 5 fits gamma modelsonto the sequence of Chi-square distances between each row profiles and the average profile, theone in Section 6 fits models onto the sequence of values taken by the first component of thecorrespondence analysis as well as onto sequences of other summary measures like the averageword length. In Section 7 we fit models onto the marginal binomial sequences to identify thefeatures that distinguish the chapters before and after that boundary. Most methods rely heavilyon the use of generalized linear models
Resumo:
This paper overviews the field of graphical simulators used for AUV development, presents the taxonomy of these applications and proposes a classification. It also presents Neptune, a multivehicle, real-time, graphical simulator based on OpenGL that allows hardware in the loop simulations
Resumo:
A long development time is needed from the design to the implementation of an AUV. During the first steps, simulation plays an important role, since it allows for the development of preliminary versions of the control system to be integrated. Once the robot is ready, the control systems are implemented, tuned and tested. The use of a real-time simulator can help closing the gap between off-line simulation and real testing using the already implemented robot. When properly interfaced with the robot hardware, a real-time graphical simulation with a "hardware in the loop" configuration, can allow for the testing of the implemented control system running in the actual robot hardware. Hence, the development time is drastically reduced. These paper overviews the field of graphical simulators used for AUV development proposing a classification. It also presents NEPTUNE, a multi-vehicle, real-time, graphical simulator based on OpenGL that allows hardware in the loop simulations
Resumo:
Epipolar geometry is a key point in computer vision and the fundamental matrix estimation is the only way to compute it. This article surveys several methods of fundamental matrix estimation which have been classified into linear methods, iterative methods and robust methods. All of these methods have been programmed and their accuracy analysed using real images. A summary, accompanied with experimental results, is given
Resumo:
Low concentrations of elements in geochemical analyses have the peculiarity of beingcompositional data and, for a given level of significance, are likely to be beyond thecapabilities of laboratories to distinguish between minute concentrations and completeabsence, thus preventing laboratories from reporting extremely low concentrations of theanalyte. Instead, what is reported is the detection limit, which is the minimumconcentration that conclusively differentiates between presence and absence of theelement. A spatially distributed exhaustive sample is employed in this study to generateunbiased sub-samples, which are further censored to observe the effect that differentdetection limits and sample sizes have on the inference of population distributionsstarting from geochemical analyses having specimens below detection limit (nondetects).The isometric logratio transformation is used to convert the compositional data in thesimplex to samples in real space, thus allowing the practitioner to properly borrow fromthe large source of statistical techniques valid only in real space. The bootstrap method isused to numerically investigate the reliability of inferring several distributionalparameters employing different forms of imputation for the censored data. The casestudy illustrates that, in general, best results are obtained when imputations are madeusing the distribution best fitting the readings above detection limit and exposes theproblems of other more widely used practices. When the sample is spatially correlated, itis necessary to combine the bootstrap with stochastic simulation
Resumo:
Sediment composition is mainly controlled by the nature of the source rock(s), and chemical (weathering) and physical processes (mechanical crushing, abrasion, hydrodynamic sorting) during alteration and transport. Although the factors controlling these processes are conceptually well understood, detailed quantification of compositional changes induced by a single process are rare, as are examples where the effects of several processes can be distinguished. The present study was designed to characterize the role of mechanical crushing and sorting in the absence of chemical weathering. Twenty sediment samples were taken from Alpine glaciers that erode almost pure granitoid lithologies. For each sample, 11 grain-size fractions from granules to clay (ø grades &-1 to &9) were separated, and each fraction was analysed for its chemical composition.The presence of clear steps in the box-plots of all parts (in adequate ilr and clr scales) against ø is assumed to be explained by typical crystal size ranges for the relevant mineral phases. These scatter plots and the biplot suggest a splitting of the full grain size range into three groups: coarser than ø=4 (comparatively rich in SiO2, Na2O, K2O, Al2O3, and dominated by “felsic” minerals like quartz and feldspar), finer than ø=8 (comparatively rich in TiO2, MnO, MgO, Fe2O3, mostly related to “mafic” sheet silicates like biotite and chlorite), and intermediate grains sizes (4≤ø &8; comparatively rich in P2O5 and CaO, related to apatite, some feldspar).To further test the absence of chemical weathering, the observed compositions were regressed against three explanatory variables: a trend on grain size in ø scale, a step function for ø≥4, and another for ø≥8. The original hypothesis was that the trend could be identified with weathering effects, whereas each step function would highlight those minerals with biggest characteristic size at its lower end. Results suggest that this assumption is reasonable for the step function, but that besides weathering some other factors (different mechanical behavior of minerals) have also an important contribution to the trend.Key words: sediment, geochemistry, grain size, regression, step function
Resumo:
En el present treball es realitza un estudi hidràulic i de qualitat de les aigües de la xarxa municipal per tal d’analitzar en primer lloc el seu estat actual i proposar posteriorment una sèrie d’actuacions de millora. Això s’ha desenvolupat amb l’ajuda d’un programa de simulació de xarxes hidràuliques i de qualitat, en ser l’estudi d’una elevada envergadura, que feia inviable l’estudi empíric de la instal•lació. El simulador utilitzat ha estat l’EPANET, el qual va estar elaborat per la NATIONAL RISK MANAGEMENT RESEARCH LABORATORY de Cincinatty, als Estats Units i traduït a l’espanyol pel grup REDHISP Inst. Ingenieria del agua y M.A. de la Universitat Politècnica de València
Resumo:
Aquest projecte es centra en la realització d’un estudi de la mobilitat en diferents xarxes de transport públic. En particular, aquest estudi pretén ser una anàlisi comparativa de conceptes relacionats amb la topologia i navegabilitat de xarxes de metro de diferents països des d’un punt de vista innovador, tot realitzant una aproximació interdisciplinària a l’anàlisi de les xarxes.Es tracta d’un estudi centrat sobretot en conceptes i mètodes desenvolupats últimament en el camps de les Xarxes Complexes i de la Teoria de la Informació. Això ens ha permès focalitzar les nostres conclusions en les mesures de navegabilitat de les diferents xarxes així com en els paràmetres topològics que ens les defineixen, sense basar-nos en dades geogràfiques ni operatives. Els sistemes de metro estudiats en el present treball són els de Barcelona, Moscou, París i Nova York. Són sistemes que s’han desenvolupat en ambients històrics i culturals molt diversos fet que pot donar lloc a veure si aquesta circumstància és causant de diferències estructurals i de funcionament entre ells o bési pel contrari segueixen uns patrons de comportament semblants
Resumo:
L’ objectiu principal d’ aquest treball és l’ anàlisi de l’ evolució de l’ impacte ambiental produït per l’ emissió de gasos contaminants procedents de la incineradora de Campdorà (Girona). Els gasos contaminants objecte d’ estudi són: partícules de suspensió totals, clorur d’ hidrogen, diòxid de nitrogen, monòxid de carboni i diòxid de sofre. S’ ha realitzat la simulació de la dispersió atmosfèrica dels contaminants emesos per la incineradora de Campdorà mitjançant el programa informàtic ISC-AERMOD View. Com a resultat, s’ obtenen una sèrie de mapes de concentració on es mostren els diferents nivells d’ immissió detectats en la zona objecte d’ estudi. Els resultats mostren com la incorporació de noves tecnologies i tractaments de gasos en la incineradora de Campdorà han representat una reducció dels nivells d’ immissió de la zona, millorant la qualitat de l’ aire i disminuint l’ impacte ambiental que produeixen les emissions contaminants
Resumo:
El present projecte té com objecte realitzar una casa que sigui eficient energèticament a partir d’una casa ja construïda, modificant així tot el que sigui necessari per poder aconseguir una millora del comportament bioclimàtic de la casa i una major independència dels subministraments de la xarxa pública (electricitat i gas). El projecte es divideix en tres fases clarament diferenciades: una primera consistent en realitzar una recerca dels sistemes constructius que fan que una casa funcioni millor i sigui més eficient a nivell energètic (façana ventilada, forjat sanitari, coberta enjardinada ,etc) i també consistent en realitzar un estudi dels sistemes o mètodes de producció d’energia més ecològics (energia solar, geotèrmia, energia eòlica, etc), que facin la casa més autònoma en quan a les energies i subministraments de la xarxa pública de distribució (electricitat i gas); una segona fase consistient en triar els sistemes constructius i de producció d’energia tenint en compte la informació obtinguda de la recerca inicial i aplicar aquests sobre una casa unifamiliar amb sistemes constructius i de producció d’energia tradicional (façana amb obra vista, calefacció amb caldera a gas i radiadors,etc) elegida a l’atzar; i una tercera i última fase consistent en fer un comparatiu econòmic entre el cost de construcció de la casa amb sistemes tradicionals i de la casa eficient. Després és farà una estimació de l’estalvi energètic d’una i de l’altra casa, i amb tot això es valorarà si són amortitzables les despeses que s’han realitzat per aconseguir aquests estalvis energètics
Resumo:
A la física o a l’enginyeria es defineix com fregament o fricció a la resistència que s'oposa a la rotació o al lliscament d'un cos sobre un altre, o també a la força que apareix en la superfície de contacte de dos cossos quan s'intenta lliscar un sobre un altre. El fregament ha estat fins avui dia un gran problema físic, això és degut a que genera imperfeccions, especialment microscòpiques, entre les superfícies en contacte. Aleshores és quan apareix la tribologia. La tribologia és la ciència que estudia la fricció, el desgast i la lubricació de superfícies en contacte. El lliscament entre superfícies sòlides es caracteritza generalment per un alt coeficient de fricció i un gran desgast a causa de les propietats específiques de lessuperfícies. La lubricació consisteix en la introducció d'una capa intermèdia d'un material aliè entre les superfícies en moviment. En aquest projecte hem intentat aplicar tècniques i mètodes de control els quals puguin arribar a millorar i perfeccionar els sistemes de mesura i control a nivell industrial i/o particular. En el nostre cas ha estat l’estudi dels olis lubricants usats en motors de combustió interna de variats vehicles com motocicletes, automòbils, camions o vaixells. Hem introduït una millora d’automatització mitjançant un circuit pneumàtic al captador de partícules, hi hem introduït una tècnica per captar partícules a partir de filtres de membrana, hem estudiat les mostres i llurs ferrogrames i membranes amb la finalitat de detectar les anomalies dels motors. L’objectiu del treball és l’estudi del desgast originat en motors de combustió interna, majoritàriament, Dièsel de camions, automòbils i vaixells. Això, comprèn la captació de partícules en ferrografies, la seva observació i anàlisi en microscopi, la seva classificació, comparació i la detecció d’anomalies en els motors. Per altra banda, també s’aprofundirà en les tècniques d’anàlisi, la lubricació i manteniment dels motors i el nou disseny i validació d’un captador de partícules automatitzat
Resumo:
Actualment l’esport del rem només s’entén com a activitat de lleure o esport de competició.Dins del rem, hi ha una gran varietat de disciplines esportives; totes coincideixen en l’impuls d’una embarcació mitjançant un sistema de palanques simple. Es diferencien en dos grans grups: el banc mòbil i el banc fix. El banc mòbil disposa d’un seient sobre rodes que permet aprofitar la força de les cames per la impulsió, en canvi, en el banc fix, no hi ha desplaçament del seient, el que implica el treball del tors i braços. Un dels punts que tenen en comú tot el banc fix, és el disseny del seu rem; a diferènciadel banc mòbil on la pala pot tenir el disseny que es vulgui. En banc fix la pala del rem ha de ser simètrica i alineada amb la canya del rem. L’objectiu d’aquest projecte és l’anàlisi hidrodinàmic de diferents models de pales simètriques per tal de determinar el model més eficient, des del punt de vista hidrodinàmic, per a la impulsió de l’embarcació de banc fix. Així, es simularan virtualment diferents models de pales simètriques disponibles en el mercat com models prototipus amb un programa de dinàmica de fluids computacional. L’anàlisi dels resultats determinarà el model més eficient. En la realització del projecte, l’estudi hidrodinàmic es realitzarà de manera virtual a partir de la utilització de programes comercials de dinàmica de fluids. Així com també programes de disseny 3D i programes de mallat que siguin compatibles amb el programa de simulació a utilitzar. En el disseny s’utilitzaran programes com Autocad i Rhinoceros, després, en funció del disseny, utilitzarem un programa d’elements finits anomenat ICEM ANSYS que mallarà la geometria emprada. Finalment, la simulació s’efectuarà amb el programa ANSYS CFX. L’estudi no preveu el càlcul de resistència mecànica dels models ni la seva construcció
Resumo:
El diagnòstic mitjançant la imatge mèdica s’ha convertit en una eina fonamental en la pràctica clínica, permet entre altres coses, reconstruir a partir d’un conjunt d’imatges 2D, obtingudes a partir d’aparells de captació, qualsevol part de l’organisme d’un pacient i representar-lo en un model 3D. Sobre aquest model 3D poden realitzar-se diferents operacions que faciliten el diagnòstic i la presa de decisions als especialistes. El projecte que es presenta forma part del desenvolupament de la plataforma informàtica de visualització i tractament de dades mèdiques, anomenada Starviewer, que desenvolupen conjuntament el laboratori de Gràfics i Imatge (GiLab) de la Universitat de Girona i l’ Institut de Diagnòstic per la Imatge (IDI) de l’Hospital Josep Trueta de Girona. En particular, en aquest projecte es centra en el diagnòstic del càncer colorectal i el desenvolupament de mètodes i tècniques de suport al seu diagnòstic. Els dos punts claus en el tractament d’aqueta patologia són: la detecció de les lesions I l’estudi de l’evolució d’aquestes lesions, una vegada s’ha iniciat el tractament tumoral. L’objectiu principal d’aquest projecte és implementar i integrar en la plataforma Starviewer les tècniques de visualització i processament de dades necessàries per donar suport als especialistes en el diagnòstic de les lesions del colon. Donada la dificultat en el processament de les dades reals del budell ens proposem: dissenyar i implementar un sistema per crear models sintètics del budell; estudiar, implementar i avaluar les tècniques de processament d’imatge que calen per segmentar lesions de budell; dissenyar i implementar un sistema d’exploració del budell iintegrar de tots els mòduls implementats en la plataforma starviewer
Resumo:
L’objectiu principal d’aquest projecte era implementar la visualització 3D demodels fusionats i aplicar totes les tècniques possibles per realitzar aquesta fusió. Aquestes tècniques s’integraran en la plataforma de visualització i processament de dades mèdiques STARVIEWER. Per assolir l’ objectiu principal s’ han definit els següents objectius específics:1- estudiar els algoritmes de visualització de models simples i analitzar els diferents paràmetres a tenir en compte. 2- ampliació de la tècnica de visualització bàsica seleccionada per tal de suportar els models fusionats. 3- avaluar i compar tots els mètodes implementats per poder determinar quin ofereix les millors visualitzacions