658 resultados para Mètodes experimentals


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In human Population Genetics, routine applications of principal component techniques are oftenrequired. Population biologists make widespread use of certain discrete classifications of humansamples into haplotypes, the monophyletic units of phylogenetic trees constructed from severalsingle nucleotide bimorphisms hierarchically ordered. Compositional frequencies of the haplotypesare recorded within the different samples. Principal component techniques are then required as adimension-reducing strategy to bring the dimension of the problem to a manageable level, say two,to allow for graphical analysis.Population biologists at large are not aware of the special features of compositional data and normally make use of the crude covariance of compositional relative frequencies to construct principalcomponents. In this short note we present our experience with using traditional linear principalcomponents or compositional principal components based on logratios, with reference to a specificdataset

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main instrument used in psychological measurement is the self-report questionnaire. One of its majordrawbacks however is its susceptibility to response biases. A known strategy to control these biases hasbeen the use of so-called ipsative items. Ipsative items are items that require the respondent to makebetween-scale comparisons within each item. The selected option determines to which scale the weight ofthe answer is attributed. Consequently in questionnaires only consisting of ipsative items everyrespondent is allotted an equal amount, i.e. the total score, that each can distribute differently over thescales. Therefore this type of response format yields data that can be considered compositional from itsinception.Methodological oriented psychologists have heavily criticized this type of item format, since the resultingdata is also marked by the associated unfavourable statistical properties. Nevertheless, clinicians havekept using these questionnaires to their satisfaction. This investigation therefore aims to evaluate bothpositions and addresses the similarities and differences between the two data collection methods. Theultimate objective is to formulate a guideline when to use which type of item format.The comparison is based on data obtained with both an ipsative and normative version of threepsychological questionnaires, which were administered to 502 first-year students in psychology accordingto a balanced within-subjects design. Previous research only compared the direct ipsative scale scoreswith the derived ipsative scale scores. The use of compositional data analysis techniques also enables oneto compare derived normative score ratios with direct normative score ratios. The addition of the secondcomparison not only offers the advantage of a better-balanced research strategy. In principle it also allowsfor parametric testing in the evaluation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Most of economic literature has presented its analysis under the assumption of homogeneous capital stock.However, capital composition differs across countries. What has been the pattern of capital compositionassociated with World economies? We make an exploratory statistical analysis based on compositional datatransformed by Aitchinson logratio transformations and we use tools for visualizing and measuring statisticalestimators of association among the components. The goal is to detect distinctive patterns in the composition.As initial findings could be cited that:1. Sectorial components behaved in a correlated way, building industries on one side and , in a lessclear view, equipment industries on the other.2. Full sample estimation shows a negative correlation between durable goods component andother buildings component and between transportation and building industries components.3. Countries with zeros in some components are mainly low income countries at the bottom of theincome category and behaved in a extreme way distorting main results observed in the fullsample.4. After removing these extreme cases, conclusions seem not very sensitive to the presence ofanother isolated cases

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the high cost of a large ATM network working up to full strength to apply our ideas about network management, i.e., dynamic virtual path (VP) management and fault restoration, we developed a distributed simulation platform for performing our experiments. This platform also had to be capable of other sorts of tests, such as connection admission control (CAC) algorithms, routing algorithms, and accounting and charging methods. The platform was posed as a very simple, event-oriented and scalable simulation. The main goal was the simulation of a working ATM backbone network with a potentially large number of nodes (hundreds). As research into control algorithms and low-level, or rather cell-level methods, was beyond the scope of this study, the simulation took place at a connection level, i.e., there was no real traffic of cells. The simulated network behaved like a real network accepting and rejecting SNMP ones, or experimental tools using the API node

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The statistical analysis of literary style is the part of stylometry that compares measurable characteristicsin a text that are rarely controlled by the author, with those in other texts. When thegoal is to settle authorship questions, these characteristics should relate to the author’s style andnot to the genre, epoch or editor, and they should be such that their variation between authors islarger than the variation within comparable texts from the same author.For an overview of the literature on stylometry and some of the techniques involved, see for exampleMosteller and Wallace (1964, 82), Herdan (1964), Morton (1978), Holmes (1985), Oakes (1998) orLebart, Salem and Berry (1998).Tirant lo Blanc, a chivalry book, is the main work in catalan literature and it was hailed to be“the best book of its kind in the world” by Cervantes in Don Quixote. Considered by writterslike Vargas Llosa or Damaso Alonso to be the first modern novel in Europe, it has been translatedseveral times into Spanish, Italian and French, with modern English translations by Rosenthal(1996) and La Fontaine (1993). The main body of this book was written between 1460 and 1465,but it was not printed until 1490.There is an intense and long lasting debate around its authorship sprouting from its first edition,where its introduction states that the whole book is the work of Martorell (1413?-1468), while atthe end it is stated that the last one fourth of the book is by Galba (?-1490), after the death ofMartorell. Some of the authors that support the theory of single authorship are Riquer (1990),Chiner (1993) and Badia (1993), while some of those supporting the double authorship are Riquer(1947), Coromines (1956) and Ferrando (1995). For an overview of this debate, see Riquer (1990).Neither of the two candidate authors left any text comparable to the one under study, and thereforediscriminant analysis can not be used to help classify chapters by author. By using sample textsencompassing about ten percent of the book, and looking at word length and at the use of 44conjunctions, prepositions and articles, Ginebra and Cabos (1998) detect heterogeneities that mightindicate the existence of two authors. By analyzing the diversity of the vocabulary, Riba andGinebra (2000) estimates that stylistic boundary to be near chapter 383.Following the lead of the extensive literature, this paper looks into word length, the use of the mostfrequent words and into the use of vowels in each chapter of the book. Given that the featuresselected are categorical, that leads to three contingency tables of ordered rows and therefore tothree sequences of multinomial observations.Section 2 explores these sequences graphically, observing a clear shift in their distribution. Section 3describes the problem of the estimation of a suden change-point in those sequences, in the followingsections we propose various ways to estimate change-points in multinomial sequences; the methodin section 4 involves fitting models for polytomous data, the one in Section 5 fits gamma modelsonto the sequence of Chi-square distances between each row profiles and the average profile, theone in Section 6 fits models onto the sequence of values taken by the first component of thecorrespondence analysis as well as onto sequences of other summary measures like the averageword length. In Section 7 we fit models onto the marginal binomial sequences to identify thefeatures that distinguish the chapters before and after that boundary. Most methods rely heavilyon the use of generalized linear models

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Epipolar geometry is a key point in computer vision and the fundamental matrix estimation is the only way to compute it. This article surveys several methods of fundamental matrix estimation which have been classified into linear methods, iterative methods and robust methods. All of these methods have been programmed and their accuracy analysed using real images. A summary, accompanied with experimental results, is given

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Low concentrations of elements in geochemical analyses have the peculiarity of beingcompositional data and, for a given level of significance, are likely to be beyond thecapabilities of laboratories to distinguish between minute concentrations and completeabsence, thus preventing laboratories from reporting extremely low concentrations of theanalyte. Instead, what is reported is the detection limit, which is the minimumconcentration that conclusively differentiates between presence and absence of theelement. A spatially distributed exhaustive sample is employed in this study to generateunbiased sub-samples, which are further censored to observe the effect that differentdetection limits and sample sizes have on the inference of population distributionsstarting from geochemical analyses having specimens below detection limit (nondetects).The isometric logratio transformation is used to convert the compositional data in thesimplex to samples in real space, thus allowing the practitioner to properly borrow fromthe large source of statistical techniques valid only in real space. The bootstrap method isused to numerically investigate the reliability of inferring several distributionalparameters employing different forms of imputation for the censored data. The casestudy illustrates that, in general, best results are obtained when imputations are madeusing the distribution best fitting the readings above detection limit and exposes theproblems of other more widely used practices. When the sample is spatially correlated, itis necessary to combine the bootstrap with stochastic simulation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sediment composition is mainly controlled by the nature of the source rock(s), and chemical (weathering) and physical processes (mechanical crushing, abrasion, hydrodynamic sorting) during alteration and transport. Although the factors controlling these processes are conceptually well understood, detailed quantification of compositional changes induced by a single process are rare, as are examples where the effects of several processes can be distinguished. The present study was designed to characterize the role of mechanical crushing and sorting in the absence of chemical weathering. Twenty sediment samples were taken from Alpine glaciers that erode almost pure granitoid lithologies. For each sample, 11 grain-size fractions from granules to clay (ø grades &-1 to &9) were separated, and each fraction was analysed for its chemical composition.The presence of clear steps in the box-plots of all parts (in adequate ilr and clr scales) against ø is assumed to be explained by typical crystal size ranges for the relevant mineral phases. These scatter plots and the biplot suggest a splitting of the full grain size range into three groups: coarser than ø=4 (comparatively rich in SiO2, Na2O, K2O, Al2O3, and dominated by “felsic” minerals like quartz and feldspar), finer than ø=8 (comparatively rich in TiO2, MnO, MgO, Fe2O3, mostly related to “mafic” sheet silicates like biotite and chlorite), and intermediate grains sizes (4≤ø &8; comparatively rich in P2O5 and CaO, related to apatite, some feldspar).To further test the absence of chemical weathering, the observed compositions were regressed against three explanatory variables: a trend on grain size in ø scale, a step function for ø≥4, and another for ø≥8. The original hypothesis was that the trend could be identified with weathering effects, whereas each step function would highlight those minerals with biggest characteristic size at its lower end. Results suggest that this assumption is reasonable for the step function, but that besides weathering some other factors (different mechanical behavior of minerals) have also an important contribution to the trend.Key words: sediment, geochemistry, grain size, regression, step function

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aquest projecte es centra en la realització d’un estudi de la mobilitat en diferents xarxes de transport públic. En particular, aquest estudi pretén ser una anàlisi comparativa de conceptes relacionats amb la topologia i navegabilitat de xarxes de metro de diferents països des d’un punt de vista innovador, tot realitzant una aproximació interdisciplinària a l’anàlisi de les xarxes.Es tracta d’un estudi centrat sobretot en conceptes i mètodes desenvolupats últimament en el camps de les Xarxes Complexes i de la Teoria de la Informació. Això ens ha permès focalitzar les nostres conclusions en les mesures de navegabilitat de les diferents xarxes així com en els paràmetres topològics que ens les defineixen, sense basar-nos en dades geogràfiques ni operatives. Els sistemes de metro estudiats en el present treball són els de Barcelona, Moscou, París i Nova York. Són sistemes que s’han desenvolupat en ambients històrics i culturals molt diversos fet que pot donar lloc a veure si aquesta circumstància és causant de diferències estructurals i de funcionament entre ells o bési pel contrari segueixen uns patrons de comportament semblants

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El present projecte té com objecte realitzar una casa que sigui eficient energèticament a partir d’una casa ja construïda, modificant així tot el que sigui necessari per poder aconseguir una millora del comportament bioclimàtic de la casa i una major independència dels subministraments de la xarxa pública (electricitat i gas). El projecte es divideix en tres fases clarament diferenciades: una primera consistent en realitzar una recerca dels sistemes constructius que fan que una casa funcioni millor i sigui més eficient a nivell energètic (façana ventilada, forjat sanitari, coberta enjardinada ,etc) i també consistent en realitzar un estudi dels sistemes o mètodes de producció d’energia més ecològics (energia solar, geotèrmia, energia eòlica, etc), que facin la casa més autònoma en quan a les energies i subministraments de la xarxa pública de distribució (electricitat i gas); una segona fase consistient en triar els sistemes constructius i de producció d’energia tenint en compte la informació obtinguda de la recerca inicial i aplicar aquests sobre una casa unifamiliar amb sistemes constructius i de producció d’energia tradicional (façana amb obra vista, calefacció amb caldera a gas i radiadors,etc) elegida a l’atzar; i una tercera i última fase consistent en fer un comparatiu econòmic entre el cost de construcció de la casa amb sistemes tradicionals i de la casa eficient. Després és farà una estimació de l’estalvi energètic d’una i de l’altra casa, i amb tot això es valorarà si són amortitzables les despeses que s’han realitzat per aconseguir aquests estalvis energètics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A la física o a l’enginyeria es defineix com fregament o fricció a la resistència que s'oposa a la rotació o al lliscament d'un cos sobre un altre, o també a la força que apareix en la superfície de contacte de dos cossos quan s'intenta lliscar un sobre un altre. El fregament ha estat fins avui dia un gran problema físic, això és degut a que genera imperfeccions, especialment microscòpiques, entre les superfícies en contacte. Aleshores és quan apareix la tribologia. La tribologia és la ciència que estudia la fricció, el desgast i la lubricació de superfícies en contacte. El lliscament entre superfícies sòlides es caracteritza generalment per un alt coeficient de fricció i un gran desgast a causa de les propietats específiques de lessuperfícies. La lubricació consisteix en la introducció d'una capa intermèdia d'un material aliè entre les superfícies en moviment. En aquest projecte hem intentat aplicar tècniques i mètodes de control els quals puguin arribar a millorar i perfeccionar els sistemes de mesura i control a nivell industrial i/o particular. En el nostre cas ha estat l’estudi dels olis lubricants usats en motors de combustió interna de variats vehicles com motocicletes, automòbils, camions o vaixells. Hem introduït una millora d’automatització mitjançant un circuit pneumàtic al captador de partícules, hi hem introduït una tècnica per captar partícules a partir de filtres de membrana, hem estudiat les mostres i llurs ferrogrames i membranes amb la finalitat de detectar les anomalies dels motors. L’objectiu del treball és l’estudi del desgast originat en motors de combustió interna, majoritàriament, Dièsel de camions, automòbils i vaixells. Això, comprèn la captació de partícules en ferrografies, la seva observació i anàlisi en microscopi, la seva classificació, comparació i la detecció d’anomalies en els motors. Per altra banda, també s’aprofundirà en les tècniques d’anàlisi, la lubricació i manteniment dels motors i el nou disseny i validació d’un captador de partícules automatitzat

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El diagnòstic mitjançant la imatge mèdica s’ha convertit en una eina fonamental en la pràctica clínica, permet entre altres coses, reconstruir a partir d’un conjunt d’imatges 2D, obtingudes a partir d’aparells de captació, qualsevol part de l’organisme d’un pacient i representar-lo en un model 3D. Sobre aquest model 3D poden realitzar-se diferents operacions que faciliten el diagnòstic i la presa de decisions als especialistes. El projecte que es presenta forma part del desenvolupament de la plataforma informàtica de visualització i tractament de dades mèdiques, anomenada Starviewer, que desenvolupen conjuntament el laboratori de Gràfics i Imatge (GiLab) de la Universitat de Girona i l’ Institut de Diagnòstic per la Imatge (IDI) de l’Hospital Josep Trueta de Girona. En particular, en aquest projecte es centra en el diagnòstic del càncer colorectal i el desenvolupament de mètodes i tècniques de suport al seu diagnòstic. Els dos punts claus en el tractament d’aqueta patologia són: la detecció de les lesions I l’estudi de l’evolució d’aquestes lesions, una vegada s’ha iniciat el tractament tumoral. L’objectiu principal d’aquest projecte és implementar i integrar en la plataforma Starviewer les tècniques de visualització i processament de dades necessàries per donar suport als especialistes en el diagnòstic de les lesions del colon. Donada la dificultat en el processament de les dades reals del budell ens proposem: dissenyar i implementar un sistema per crear models sintètics del budell; estudiar, implementar i avaluar les tècniques de processament d’imatge que calen per segmentar lesions de budell; dissenyar i implementar un sistema d’exploració del budell iintegrar de tots els mòduls implementats en la plataforma starviewer

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectiu principal d’aquest projecte era implementar la visualització 3D demodels fusionats i aplicar totes les tècniques possibles per realitzar aquesta fusió. Aquestes tècniques s’integraran en la plataforma de visualització i processament de dades mèdiques STARVIEWER. Per assolir l’ objectiu principal s’ han definit els següents objectius específics:1- estudiar els algoritmes de visualització de models simples i analitzar els diferents paràmetres a tenir en compte. 2- ampliació de la tècnica de visualització bàsica seleccionada per tal de suportar els models fusionats. 3- avaluar i compar tots els mètodes implementats per poder determinar quin ofereix les millors visualitzacions

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’estudi consta de dues grans parts que serien la part de dissenyar, desenvolupar i implementar els mètodes de segmentació que ens serviran per separar els punts rígids dels punts no rígids/deformables. I l’altra part seria la d’obtenir reconstruccions 3D a partir d’un sistema estèreo, passant per la calibració de les càmeres del sistema, la realització de captures d’experiments reals, la generació de reconstruccions 3D per finalment posar a prova els mètodes desenvolupats en la part anterior

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudi, disseny i implementació d’un algorisme de visualització de volums i integrar-lo en la plataforma DTIWeb de visualització i processament de dades de DTI. La plataforma DTIWeb és una plataforma desenvolupada conjuntament entre el Laboratori de Gràfics i Imatge de la Universitat de Girona i d’Institut de Diagnòstic per la imatge de l’Hospital Josep Trueta de Girona. Aquesta plataforma integra els mètodes bàsics de reconstrucció de fibres del cervell. La principal limitació de la plataforma és que no suporta la visualització de models 3D. Aquest fet limita el seu us en la pràctica clínica habitual ja que es fa difícil la interpretació dels mapes de connectivitat que genera