944 resultados para Data processing methods
Resumo:
Tässä työssä on kuvattu ydinvoimalaitosten käyttökokemusten tutkimusta keskittyen erityisesti inhimillisten toimintojen tarkasteluun. Työssä on kerrottu kansainvälisistä vaatimuksista ja järjestöistä sekä yleisesti käyttökokemusten tutkimuksessa käytössä olevista menetelmistä keskittyen perussyyanalyysimenetelmiin. Suomen osalta työssä on käsitelty lainsäädännön asettamia velvoitteita ja muita vaatimuksia, jotka ydinvoima-alalla koostuvat lähinnä Säteilyturvakeskuksen YVL-ohjeista. Viranomaisena toimivan Säteilyturvakeskuksen, alan tutkimusta suorittavan Valtion teknillisen tutkimuskeskuksen ja Teollisuuden Voima Oy:n käyttökokemusten tutkimiseen liittyvät organisaatiot ja menettelytavat on esitelty. Fortum Power and Heat Oy:n omistaman ja käyttämän Loviisan ydinvoimalaitoksen käyttökokemusten hyödyntäminen on käsitelty tarkemmin. Loviisan voimalaitoksen organisaatio ja käyttökokemusten sekä inhimillisten virheiden käsittelymenetelmiä on esitelty ja analysoitu. Työn alkuvaiheessa Loviisan voimalaitoksella inhimillisistä virheistä kerätystä tiedosta koottu tietokanta järjesteltiin kuntoon. Järjestelyn jälkeen tietoa analysoitiin ja analysoinnin tulokset on esitetty tässä työssä. Sekä järjestelyn että analysoinnin aikana havaitut kehityskohteet kirjattiin muistiin. Pienet toimenpiteet suoritettiin heti ja suuremmat kirjattiin tämän työn toimenpide-ehdotuksiin. Kehittämiskeinoja on ehdotettu virheiden luokittelumenetelmään ja käyttökokemusten käsittelymenetelmiin.
Resumo:
Työssä selvitettiin väsymisen huomioivan ja minimoivan laitteen ohjausmenetelmiä. Väsymisilmiön huomioiva älykäs laite monitoroi itsenäisesti mm. väsymissäröjen kasvua ja muuttaa toimintaansa sen mukaisesti. Reagoinnin hyötyinä saavutetaan väsyttävästi kuormitetulle laitteelle mm. pidempi käyttöikä ja riskin hallinta, jossa laite tietää, miten sitä voidaan käyttää ennen vauriota ja sen jälkeen. Kunnossapitoon liittyen ennustetaan jäljellä olevaa käyttöikää, jolloin voidaan suunnitella huolto. Tutkimuksessa käsiteltiin mm. laitteiden ohjauksen tarvitsemia mittausmenetelmiä, mittaustiedon käsittelyä, vaurion luokittelua ja vauriota minimoivan ohjauksen rakennetta. Lisäksi käsiteltiin lyhyesti vaurion luokittelussa sekä ohjausreaktioiden ratkaisemisessa tarvittavia oppivia menetelmiä. Väsymistä minimoivan laitteen ohjauksen perusedellytys on laitteen kokemien rasitusten ja/tai suorituksen mittaaminen. Mittaustulosten perusteella määritetään vaurioitumista kuvaavat suureet. Ohjauksen vaurioon reagoivassa osassa määritetään tieto vaurioitumisen kriittisyydestä ja tämän perusteella tarvittava ohjauksen optimaalinen muutos sekä optimaalinen ohjaussignaali tai muu korjaava toimenpide. Ohjaus optimoidaan vaurioitumisnopeus minimoiden ja suorituskyky maksimoiden. Näiden välille etsitään sopiva tasapaino, jossa suorituskyvyn häviö on pieni mahdollisimman suurella vaurioitumisen pienenemisellä. Tämän jälkeen mittauksien avulla saadaan tieto korjatun ohjauksen vaikutuksesta vauriosuureisiin.
Resumo:
We analyze the behavior of complex information in the Fresnel domain, taking into account the limited capability to display complex values of liquid crystal devices when they are used as holographic displays. To do this analysis we study the reconstruction of Fresnel holograms at several distances using the different parts of the complex distribution. We also use the information adjusted with a method that combines two configurations of the devices in an adding architecture. The results of the error analysis show different behavior for the reconstructions when using the different methods. Simulated and experimental results are presented.
Resumo:
Although fetal anatomy can be adequately viewed in new multi-slice MR images, many critical limitations remain for quantitative data analysis. To this end, several research groups have recently developed advanced image processing methods, often denoted by super-resolution (SR) techniques, to reconstruct from a set of clinical low-resolution (LR) images, a high-resolution (HR) motion-free volume. It is usually modeled as an inverse problem where the regularization term plays a central role in the reconstruction quality. Literature has been quite attracted by Total Variation energies because of their ability in edge preserving but only standard explicit steepest gradient techniques have been applied for optimization. In a preliminary work, it has been shown that novel fast convex optimization techniques could be successfully applied to design an efficient Total Variation optimization algorithm for the super-resolution problem. In this work, two major contributions are presented. Firstly, we will briefly review the Bayesian and Variational dual formulations of current state-of-the-art methods dedicated to fetal MRI reconstruction. Secondly, we present an extensive quantitative evaluation of our SR algorithm previously introduced on both simulated fetal and real clinical data (with both normal and pathological subjects). Specifically, we study the robustness of regularization terms in front of residual registration errors and we also present a novel strategy for automatically select the weight of the regularization as regards the data fidelity term. Our results show that our TV implementation is highly robust in front of motion artifacts and that it offers the best trade-off between speed and accuracy for fetal MRI recovery as in comparison with state-of-the art methods.
Resumo:
This work investigates performance of recent feature-based matching techniques when applied to registration of underwater images. Matching methods are tested versus different contrast enhancing pre-processing of images. As a result of the performed experiments for various dominating in images underwater artifacts and present deformation, the outperforming preprocessing, detection and description methods are proposed
Resumo:
La tècnica de l’electroencefalograma (EEG) és una de les tècniques més utilitzades per estudiar el cervell. En aquesta tècnica s’enregistren els senyals elèctrics que es produeixen en el còrtex humà a través d’elèctrodes col•locats al cap. Aquesta tècnica, però, presenta algunes limitacions a l’hora de realitzar els enregistraments, la principal limitació es coneix com a artefactes, que són senyals indesitjats que es mesclen amb els senyals EEG. L’objectiu d’aquest treball de final de màster és presentar tres nous mètodes de neteja d’artefactes que poden ser aplicats en EEG. Aquests estan basats en l’aplicació de la Multivariate Empirical Mode Decomposition, que és una nova tècnica utilitzada per al processament de senyal. Els mètodes de neteja proposats s’apliquen a dades EEG simulades que contenen artefactes (pestanyeigs), i un cop s’han aplicat els procediments de neteja es comparen amb dades EEG que no tenen pestanyeigs, per comprovar quina millora presenten. Posteriorment, dos dels tres mètodes de neteja proposats s’apliquen sobre dades EEG reals. Les conclusions que s’han extret del treball són que dos dels nous procediments de neteja proposats es poden utilitzar per realitzar el preprocessament de dades reals per eliminar pestanyeigs.
Resumo:
Tietokantoja käyttävien tietojärjestelmien kriittisyys tietoyhteiskunnan eri osille ja toiminnalle on merkittävä. Tietojenkäsittelyn jatkuvuus ja tietojärjestelmien korkea käytettävyys on pyrittävä turvaamaan mahdollisimman kattavasti joka hetkellä ja vikatilanteista on kyettävä toipumaan työskentelyn ja liiketoiminnan jatkamiseksi. Työn tarkoituksena oli selvittää erilaisia menetelmiä näiden tietokantojen jatkuvaan tiedonvarmistukseen sekä paikallisilla palvelinjärjestelmillä että tietoverkon välityksellä ylläpidettävillä varajärjestelmillä. Paikallisella hyvin suunnitellulla tiedonvarmistuksella vikaantunut tietokanta ja sen tietosisältö kyetään palauttamaan mihinkä tahansa ajanhetkeen ennen vikaantumista. Varajärjestelmät puolestaan voidaan ottaa välittömästi käyttöön kokonaisen konesalin käytön estyessä tai vikaantuessa. Lisäksi useammat konesalit ratkaisusta riippuen voivat palvella käyttäjiään samanaikaisesti tasaten tietojärjestelmän kuormaa, tarjoten lisämahdollisuuksia tietojenkäsittelyyn ja niiden avulla sama tieto voidaan tuoda lähemmäksi palvelemaan käyttäjiään. Työn mielenkiinto kohdistuu lähinnä Oracle-tietokantoja käyttävien tieto-järjestelmien tarjoamiin varmistusvaihtoehtoihin. Kyseiset tietokantajärjestelmät ovat laajassa käytössä niin yritysmaailmassa kuin julkisellakin sektorilla.
Resumo:
Reaktorisydämen valvonnalla varmistetaan, että polttoaineelta vaaditut termiset marginaalit toteutuvat ja polttoaineen suojakuori säilyy ehjänä. Olkiluodon kiehutusvesilaitoksen nykyinen sydämen valvontajärjestelmä koostuu SIMULATE-3-sydänsimulaattoriohjelmasta, reaktorisydämen instrumentoinnista, termisen tehon laskentaohjelmasta, tiedonkeruuohjelmista ja käynnistysautomatiikasta. Uusi järjestelmä koostuu näiden lisäksi GARDEL-ohjelmasta, joka on kehitetty kevytvesireaktoreiden sydämen käytön suunnitteluun ja valvontaan. GARDEL käyttää laskentaan samoja ohjelmia, jotka ovat jo Olkiluodon kiehutusvesilaitoksella käytössä. Tämän työn tarkoituksena oli verrata nykyistä ja uutta sydämen valvontajärjestelmää Olkiluodon kiehutusvesilaitoksella. Työssä tutkittiin LPRM-detektorien kalibroinnin jälkeisen datan käsittelyä, palamapäivitystä, stabiilisuuslaskentaa ja adaptiivisia menetelmiä. Järjestelmien vertailuun käytettiin Olkiluoto 2 -laitosyksiköltä käyttöjaksolta 31 (2011–2012) saatuja laskentuloksia. Tulosten perusteella havaittiin uuden järjestelmän laskennassa yksittäisiä virheitä, jotka tulee korjata. Lisäksi uuden järjestelmän toiminnasta tarvitaan lisäselvitystä.
Resumo:
Fan systems are responsible for approximately 10% of the electricity consumption in industrial and municipal sectors, and it has been found that there is energy-saving potential in these systems. To this end, variable speed drives (VSDs) are used to enhance the efficiency of fan systems. Usually, fan system operation is optimized based on measurements of the system, but there are seldom readily installed meters in the system that can be used for the purpose. Thus, sensorless methods are needed for the optimization of fan system operation. In this thesis, methods for the fan operating point estimation with a variable speed drive are studied and discussed. These methods can be used for the energy efficient control of the fan system without additional measurements. The operation of these methods is validated by laboratory measurements and data from an industrial fan system. In addition to their energy consumption, condition monitoring of fan systems is a key issue as fans are an integral part of various production processes. Fan system condition monitoring is usually carried out with vibration measurements, which again increase the system complexity. However, variable speed drives can already be used for pumping system condition monitoring. Therefore, it would add to the usability of a variablespeed- driven fan system if the variable speed drive could be used as a condition monitoring device. In this thesis, sensorless detection methods for three lifetime-reducing phenomena are suggested: these are detection of the fan contamination build-up, the correct rotational direction, and the fan surge. The methods use the variable speed drive monitoring and control options for the detection along with simple signal processing methods, such as power spectrum density estimates. The methods have been validated by laboratory measurements. The key finding of this doctoral thesis is that a variable speed drive can be used on its own as a monitoring and control device for the fan system energy efficiency, and it can also be used in the detection of certain lifetime-reducing phenomena.
Resumo:
Identification of low-dimensional structures and main sources of variation from multivariate data are fundamental tasks in data analysis. Many methods aimed at these tasks involve solution of an optimization problem. Thus, the objective of this thesis is to develop computationally efficient and theoretically justified methods for solving such problems. Most of the thesis is based on a statistical model, where ridges of the density estimated from the data are considered as relevant features. Finding ridges, that are generalized maxima, necessitates development of advanced optimization methods. An efficient and convergent trust region Newton method for projecting a point onto a ridge of the underlying density is developed for this purpose. The method is utilized in a differential equation-based approach for tracing ridges and computing projection coordinates along them. The density estimation is done nonparametrically by using Gaussian kernels. This allows application of ridge-based methods with only mild assumptions on the underlying structure of the data. The statistical model and the ridge finding methods are adapted to two different applications. The first one is extraction of curvilinear structures from noisy data mixed with background clutter. The second one is a novel nonlinear generalization of principal component analysis (PCA) and its extension to time series data. The methods have a wide range of potential applications, where most of the earlier approaches are inadequate. Examples include identification of faults from seismic data and identification of filaments from cosmological data. Applicability of the nonlinear PCA to climate analysis and reconstruction of periodic patterns from noisy time series data are also demonstrated. Other contributions of the thesis include development of an efficient semidefinite optimization method for embedding graphs into the Euclidean space. The method produces structure-preserving embeddings that maximize interpoint distances. It is primarily developed for dimensionality reduction, but has also potential applications in graph theory and various areas of physics, chemistry and engineering. Asymptotic behaviour of ridges and maxima of Gaussian kernel densities is also investigated when the kernel bandwidth approaches infinity. The results are applied to the nonlinear PCA and to finding significant maxima of such densities, which is a typical problem in visual object tracking.
Resumo:
cDNA microarray is an innovative technology that facilitates the analysis of the expression of thousands of genes simultaneously. The utilization of this methodology, which is rapidly evolving, requires a combination of expertise from the biological, mathematical and statistical sciences. In this review, we attempt to provide an overview of the principles of cDNA microarray technology, the practical concerns of the analytical processing of the data obtained, the correlation of this methodology with other data analysis methods such as immunohistochemistry in tissue microarrays, and the cDNA microarray application in distinct areas of the basic and clinical sciences.
Effect of processing on antioxidant potential and total phenolics content in beet (Beta vulgaris L.)
Resumo:
The antioxidant capacity of beet is associated with non-nutritive constituents, such as phenolic compounds. The purpose of this research was to evaluate the effect of two different heat-processing techniques (drying and canned) on the antioxidant potential (ABTS) and phenolics content of beets. A forced air circulation dehydrator was used for the drying. Drying at high temperatures (100 + 90 °C/5.6 hours; 90 °C/6 hours) increased the antioxidant potential of the processed products while mild drying conditions decreased it (80 °C/6 hours; 100 + 70 °C/6 hours) or had no effect on it (70 °C/7 hours; 100 + 80 °C/6 hours). For the canned products, the antioxidant potential did not differ according to the pH (4.2 to 3.8) for any of the four acids tested. Some processing methods influenced the antioxidant potential of the processed products, and this was also dependent on changes in the total phenolics content.
Resumo:
Effects of cold storage and three common cooking practices, blanching, sauteing, and microwave cooking at different time intervals, on the content of glucosinolate (GSL) anticancer components in six Brassica vegetables were investigated. Eleven GSLs including progoitrin, glucoraphanin, sinigrin, glucoalyssin, gluconapin, glucobrassicanapin, glucoerucin, glucobrassicin, 4-methoxyglucobrassicin, gluconasturtiin, and neoglucobrassicin were quantified using LC-MS and HPLC. Storage at 4 ºC indicated no significant loss of GSLs in broccoli, kohlrabi, and cabbage, and approximately 90-100% of the total concentration of aliphatic and indolyl GSLs were detected. Interestingly, glucoraphanin and glucobrassicin, known as a cancer prevention agents, increased approximately above 50% in broccoli, kohlrabi, and cabbage, while the amount of glucobrassicin decreased by 5% in cauliflower for 5 days at 4 ºC. Blanching of broccoli at 120 sec significantly (36%) decreased total GSLs; however, sautéing and microwaving decreased by13-26%. Individual GSLs have different response at blanching. These findings suggest that different processing methods for each vegetable would be preferred to preserve the nutritional qualities.
Resumo:
Active magnetic bearing is a type of bearing which uses magnetic field to levitate the rotor. These bearings require continuous control of the currents in electromagnets and data from position of the rotor and the measured current from electromagnets. Because of this different identification methods can be implemented with no additional hardware. In this thesis the focus was to implement and test identification methods for active magnetic bearing system and to update the rotor model. Magnetic center calibration is a method used to locate the magnetic center of the rotor. Rotor model identification is an identification method used to identify the rotor model. Rotor model update is a method used to update the rotor model based on identification data. These methods were implemented and tested with a real machine where rotor was levitated with active magnetic bearings and the functionality of the methods was ensured. Methods were developed with further extension in mind and also with the possibility to apply them for different machines with ease.
Resumo:
One of the fundamental problems with image processing of petrographic thin sections is that the appearance (colour I intensity) of a mineral grain will vary with the orientation of the crystal lattice to the preferred direction of the polarizing filters on a petrographic microscope. This makes it very difficult to determine grain boundaries, grain orientation and mineral species from a single captured image. To overcome this problem, the Rotating Polarizer Stage was used to replace the fixed polarizer and analyzer on a standard petrographic microscope. The Rotating Polarizer Stage rotates the polarizers while the thin section remains stationary, allowing for better data gathering possibilities. Instead of capturing a single image of a thin section, six composite data sets are created by rotating the polarizers through 900 (or 1800 if quartz c-axes measurements need to be taken) in both plane and cross polarized light. The composite data sets can be viewed as separate images and consist of the average intensity image, the maximum intensity image, the minimum intensity image, the maximum position image, the minimum position image and the gradient image. The overall strategy used by the image processing system is to gather the composite data sets, determine the grain boundaries using the gradient image, classify the different mineral species present using the minimum and maximum intensity images and then perform measurements of grain shape and, where possible, partial crystallographic orientation using the maximum intensity and maximum position images.