15 resultados para VARIABLE SAMPLING INTERVAL
em Universitat de Girona, Spain
Resumo:
Els models matemàtics quantitatius són simplificacions de la realitat i per tant el comportament obtingut per simulació d'aquests models difereix dels reals. L'ús de models quantitatius complexes no és una solució perquè en la majoria dels casos hi ha alguna incertesa en el sistema real que no pot ser representada amb aquests models. Una forma de representar aquesta incertesa és mitjançant models qualitatius o semiqualitatius. Un model d'aquest tipus de fet representa un conjunt de models. La simulació del comportament de models quantitatius genera una trajectòria en el temps per a cada variable de sortida. Aquest no pot ser el resultat de la simulació d'un conjunt de models. Una forma de representar el comportament en aquest cas és mitjançant envolupants. L'envolupant exacta és complete, és a dir, inclou tots els possibles comportaments del model, i correcta, és a dir, tots els punts dins de l'envolupant pertanyen a la sortida de, com a mínim, una instància del model. La generació d'una envolupant així normalment és una tasca molt dura que es pot abordar, per exemple, mitjançant algorismes d'optimització global o comprovació de consistència. Per aquesta raó, en molts casos s'obtenen aproximacions a l'envolupant exacta. Una aproximació completa però no correcta a l'envolupant exacta és una envolupant sobredimensionada, mentre que una envolupant correcta però no completa és subdimensionada. Aquestes propietats s'han estudiat per diferents simuladors per a sistemes incerts.
Resumo:
Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities
Resumo:
It is well known that regression analyses involving compositional data need special attention because the data are not of full rank. For a regression analysis where both the dependent and independent variable are components we propose a transformation of the components emphasizing their role as dependent and independent variables. A simple linear regression can be performed on the transformed components. The regression line can be depicted in a ternary diagram facilitating the interpretation of the analysis in terms of components. An exemple with time-budgets illustrates the method and the graphical features
Resumo:
Several methods have been suggested to estimate non-linear models with interaction terms in the presence of measurement error. Structural equation models eliminate measurement error bias, but require large samples. Ordinary least squares regression on summated scales, regression on factor scores and partial least squares are appropriate for small samples but do not correct measurement error bias. Two stage least squares regression does correct measurement error bias but the results strongly depend on the instrumental variable choice. This article discusses the old disattenuated regression method as an alternative for correcting measurement error in small samples. The method is extended to the case of interaction terms and is illustrated on a model that examines the interaction effect of innovation and style of use of budgets on business performance. Alternative reliability estimates that can be used to disattenuate the estimates are discussed. A comparison is made with the alternative methods. Methods that do not correct for measurement error bias perform very similarly and considerably worse than disattenuated regression
Resumo:
Not considered in the analytical model of the plant, uncertainties always dramatically decrease the performance of the fault detection task in the practice. To cope better with this prevalent problem, in this paper we develop a methodology using Modal Interval Analysis which takes into account those uncertainties in the plant model. A fault detection method is developed based on this model which is quite robust to uncertainty and results in no false alarm. As soon as a fault is detected, an ANFIS model is trained in online to capture the major behavior of the occurred fault which can be used for fault accommodation. The simulation results understandably demonstrate the capability of the proposed method for accomplishing both tasks appropriately
Resumo:
One of the key aspects in 3D-image registration is the computation of the joint intensity histogram. We propose a new approach to compute this histogram using uniformly distributed random lines to sample stochastically the overlapping volume between two 3D-images. The intensity values are captured from the lines at evenly spaced positions, taking an initial random offset different for each line. This method provides us with an accurate, robust and fast mutual information-based registration. The interpolation effects are drastically reduced, due to the stochastic nature of the line generation, and the alignment process is also accelerated. The results obtained show a better performance of the introduced method than the classic computation of the joint histogram
Resumo:
In this paper, we present view-dependent information theory quality measures for pixel sampling and scene discretization in flatland. The measures are based on a definition for the mutual information of a line, and have a purely geometrical basis. Several algorithms exploiting them are presented and compare well with an existing one based on depth differences
Resumo:
In this paper we address the problem of extracting representative point samples from polygonal models. The goal of such a sampling algorithm is to find points that are evenly distributed. We propose star-discrepancy as a measure for sampling quality and propose new sampling methods based on global line distributions. We investigate several line generation algorithms including an efficient hardware-based sampling method. Our method contributes to the area of point-based graphics by extracting points that are more evenly distributed than by sampling with current algorithms
Resumo:
L’objecte del present treball és la realització d’una aplicació que permeti portar a terme el control estadístic multivariable en línia d’una planta SBR. Aquesta eina ha de permetre realitzar un anàlisi estadístic multivariable complet del lot en procés, de l’últim lot finalitzat i de la resta de lots processats a la planta. L’aplicació s’ha de realitzar en l’entorn LabVIEW. L’elecció d’aquest programa ve condicionada per l’actualització del mòdul de monitorització de la planta que s’està desenvolupant en aquest mateix entorn
Resumo:
The performance of a model-based diagnosis system could be affected by several uncertainty sources, such as,model errors,uncertainty in measurements, and disturbances. This uncertainty can be handled by mean of interval models.The aim of this thesis is to propose a methodology for fault detection, isolation and identification based on interval models. The methodology includes some algorithms to obtain in an automatic way the symbolic expression of the residual generators enhancing the structural isolability of the faults, in order to design the fault detection tests. These algorithms are based on the structural model of the system. The stages of fault detection, isolation, and identification are stated as constraint satisfaction problems in continuous domains and solved by means of interval based consistency techniques. The qualitative fault isolation is enhanced by a reasoning in which the signs of the symptoms are derived from analytical redundancy relations or bond graph models of the system. An initial and empirical analysis regarding the differences between interval-based and statistical-based techniques is presented in this thesis. The performance and efficiency of the contributions are illustrated through several application examples, covering different levels of complexity.
Resumo:
La tesi doctoral presentada té com a objectius principals l'estudi de les etapes fonamentals de desintegració i flotació en un procés de destintatge de papers vell de qualitats elevades per a poder millorar l'eficàcia d'aquestes etapes clau. Conté una revisió teòrica completa i molt actualitzada del procés de desintegració i flotació tant a nivell macroscòpic com microscòpic. La metodologia de treball en el laboratori, la posada a punt dels aparells, així com les anàlisis efectuades per a valorar la resposta del procés (anàlisi de blancor, anàlisi d'imatge i anàlisi de la concentració efectiva de tinta residual) estan descrites en el capítol de material i mètodes. La posada en marxa permet obtenir unes primeres conclusions respecte la necessitat de treballar amb una matèria primera homogènia i respecte la no significació de la temperatura de desintegració dins l'interval de treball permès al laboratori (20-50°C). L'anàlisi de les variables mecàniques de desintegració: consistència de desintegració (c), velocitat d'agitació en la desintegració (N) i temps de desintegració (t), permet de discernir que la consistència de desintegració és una variable fonamental. El valor de consistència igual al 10% marca el límit d'existència de les forces d'impacte mecànic en la suspensió fibrosa. A consistències superiors, les forces viscoses i d'acceleració dominen l'etapa de desintegració. Existeix una interacció entre la consistència i el temps de desintegració, optimitzant-se aquesta darrera variable en funció del valor de la consistència. La velocitat d'agitació és significativa només per a valors de consistència de desintegració inferiors al 10%. En aquests casos, incrementar el valor de N de 800 a 1400 rpm representa una disminució de 14 punts en el factor de destintabilitat. L'anàlisi de les variables químiques de desintegració: concentració de silicat sòdic (% Na2SiO3), peròxid d'hidrogen (% H2O2) i hidròxid sòdic (% Na2OH), proporciona resultats força significatius. El silicat sòdic presenta un efecte altament dispersant corroborat per les corbes de distribució dels diàmetres de partícula de tinta obtingudes mitjançant anàlisi d'imatges. L'hidròxid sòdic també presenta un efecte dispersant tot i que no és tant important com el del silicat sòdic. Aquests efectes dispersants són deguts principalment a l'increment de les repulsions electrostàtiques que aporten a la suspensió fibrosa aquests reactius químics fent disminuir l'eficàcia d'eliminació de l'etapa de flotació. El peròxid d'hidrogen utilitzat generalment com agent blanquejant, actua en aquests casos com a neutralitzador dels grups hidroxil provinents tant del silicat sòdic com de l'hidròxid sòdic, disminuint la repulsió electrostàtica dins la suspensió. Amb l'anàlisi de les variables hidrodinàmiques de flotació: consistència de flotació (c), velocitat d'agitació durant la flotació (N) i cabal d'aire aplicat (q), s'aconsegueix la seva optimització dins el rang de treball permès al laboratori. Valors elevats tant de la velocitat d'agitació com del cabal d'aire aplicat durant la flotació permeten eliminar majors quantitats de tinta. La consistència de flotació assoleix valors òptims depenent de les condicions de flux dins la cel·la de flotació. Les metodologies d'anàlisi emprades permeten obtenir diferents factors de destintabilitat. Entre aquests factors existeix una correlació important (determinada pels coeficients de correlació de Pearson) que permet assegurar la utilització de la blancor com a paràmetre fonamental en l'anàlisi del destintatge de papers vells, sempre i quan es complementi amb anàlisis d'imatge o bé amb anàlisi de la concentració efectiva de tinta residual. S'aconsegueixen expressions empíriques tipus exponencial que relacionen aquests factors de destintabilitat amb les variables experimentals. L' estudi de les cinètiques de flotació permet calcular les constants cinètiques (kBlancor, kERIC, kSupimp) en funció de les variables experimentals, obtenint un model empíric de flotació que relacionant-lo amb els paràmetres microscòpics que afecten realment l'eliminació de partícules de tinta, deriva en un model fonamental molt més difícil d'interpretar. Mitjançant l'estudi d'aquestes cinètiques separades per classes, també s'aconsegueix determinar que l'eficàcia d'eliminació de partícules de tinta és màxima si el seu diàmetre equivalent és superior a 50 μm. Les partícules amb diàmetres equivalents inferiors a 15 μm no són eliminades en les condicions de flotació analitzades. Es pot dir que és físicament impossible eliminar partícules de tinta de diàmetres molt diferents amb la mateixa eficiència i sota les mateixes condicions de treball. El rendiment del procés analitzat en funció de l'eliminació de sòlids per l'etapa de flotació no ha presentat relacions significatives amb cap de les variables experimentals analitzades. Únicament es pot concloure que addicionar quantitats elevades de silicat sòdic provoca una disminució tant de sòlids com de matèria inorgànica presents en les escumes de flotació.
Variable mixed-mode delamination in composite laminates under fatigue conditions: testing & analysis
Resumo:
La majoria de les fallades en elements estructurals són degudes a càrrega per fatiga. En conseqüència, la fatiga mecànica és un factor clau per al disseny d'elements mecànics. En el cas de materials compòsits laminats, el procés de fallada per fatiga inclou diferents mecanismes de dany que resulten en la degradació del material. Un dels mecanismes de dany més importants és la delaminació entre capes del laminat. En el cas de components aeronàutics, les plaques de composit estan exposades a impactes i les delaminacions apareixen facilment en un laminat després d'un impacte. Molts components fets de compòsit tenen formes corbes, superposició de capes i capes amb diferents orientacions que fan que la delaminació es propagui en un mode mixt que depen de la grandària de la delaminació. És a dir, les delaminacions generalment es propaguen en mode mixt variable. És per això que és important desenvolupar nous mètodes per caracteritzar el creixement subcrític en mode mixt per fatiga de les delaminacions. El principal objectiu d'aquest treball és la caracterització del creixement en mode mixt variable de les delaminacions en compòsits laminats per efecte de càrregues a fatiga. Amb aquest fi, es proposa un nou model per al creixement per fatiga de la delaminació en mode mixt. Contràriament als models ja existents, el model que es proposa es formula d'acord a la variació no-monotònica dels paràmetres de propagació amb el mode mixt observada en diferents resultats experimentals. A més, es du a terme un anàlisi de l'assaig mixed-mode end load split (MMELS), la característica més important del qual és la variació del mode mixt a mesura que la delaminació creix. Per a aquest anàlisi, es tenen em compte dos mètodes teòrics presents en la literatura. No obstant, les expressions resultants per l'assaig MMELS no són equivalents i les diferències entre els dos mètodes poden ser importants, fins a 50 vegades. Per aquest motiu, en aquest treball es porta a terme un anàlisi alternatiu més acurat del MMELS per tal d'establir una comparació. Aquest anàlisi alternatiu es basa en el mètode dels elements finits i virtual crack closure technique (VCCT). D'aquest anàlisi en resulten importants aspectes a considerar per a la bona caracterització de materials utilitzant l'assaig MMELS. Durant l'estudi s'ha dissenyat i construït un utillatge per l'assaig MMELS. Per a la caracterització experimental de la propagació per fatiga de delaminacions en mode mixt variable s'utilitzen diferents provetes de laminats carboni/epoxy essencialment unidireccionals. També es du a terme un anàlisi fractogràfic d'algunes de les superfícies de fractura per delaminació. Els resultats experimentals són comparats amb les prediccions del model proposat per la propagació per fatiga d'esquerdes interlaminars.
Resumo:
Las superfícies implícitas son útiles en muchas áreasde los gráficos por ordenador. Una de sus principales ventajas es que pueden ser fácilmente usadas como primitivas para modelado. Aun asi, no son muy usadas porque su visualización toma bastante tiempo. Cuando se necesita una visualización precisa, la mejor opción es usar trazado de rayos. Sin embargo, pequeñas partes de las superficies desaparecen durante la visualización. Esto ocurre por la truncación que se presenta en la representación en punto flotante de los ordenadores; algunos bits se puerden durante las operaciones matemáticas en los algoritmos de intersección. En este tesis se presentan algoritmos para solucionar esos problemas. La investigación se basa en el uso del Análisis Intervalar Modal el cual incluye herramientas para resolver problemas con incertidumbe cuantificada. En esta tesis se proporcionan los fundamentos matemáticos necesarios para el desarrollo de estos algoritmos.