953 resultados para noisy speaker verification


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we use a Terahertz (THz) time-domain system to image and analyze the structure of an artwork attributed to the Spanish artist Goya painted in 1771. The THz images show features that cannot be seen with optical inspection and complement data obtained with X-ray imaging that provide evidence of its authenticity, which is validated by other independent studies. For instance, a feature with a strong resemblance with one of Goya"s known signatures is seen in the THz images. In particular, this paper demonstrates the potential of THz imaging as a complementary technique along with X-ray for the verification and authentication of artwork pieces through the detection of features that remain hidden to optical inspection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wiss, Janney, Elstner Associates, Inc. (WJE) evaluated potential nondestructive evaluation (NDE) methodologies that may be effective in 1) identifying internal defects within slip formed concrete barriers and 2) assessing the corrosion condition of barrier dowel bars. The evaluation was requested by the Bridge Maintenance and Inspection Unit of the Iowa Department of Transportation (IaDOT) and the Bureau of Bridges and Structures of the Illinois Department of Transportation (IDOT). The need arose due to instances in each Department’s existing inventory of bridge barriers where internal voids and other defects associated with slip forming construction methods were attributed to poor barrier performance after completion of construction and where, in other barrier walls, unintentional exposure of the dowel bars revealed extensive corrosion-related section loss at previously uninspectable locations, reducing the capacity of the barriers to resist traffic impact loads. WJE trial tested potential NDE techniques on laboratory mock-up samples built with known defects, trial sections of cast-in-place barriers at in-service bridges in Iowa, and slip formed and cast-in-place barrier walls at in-service bridges in Illinois. The work included review of available studies performed by others, field trial testing to assess candidate test methods, verification of the test methods in identifying internal anomalies and dowel bar corrosion, and preparation of this report and nondestructive evaluation guidelines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the general regression neural networks (GRNN) as a nonlinear regression method for the interpolation of monthly wind speeds in complex Alpine orography. GRNN is trained using data coming from Swiss meteorological networks to learn the statistical relationship between topographic features and wind speed. The terrain convexity, slope and exposure are considered by extracting features from the digital elevation model at different spatial scales using specialised convolution filters. A database of gridded monthly wind speeds is then constructed by applying GRNN in prediction mode during the period 1968-2008. This study demonstrates that using topographic features as inputs in GRNN significantly reduces cross-validation errors with respect to low-dimensional models integrating only geographical coordinates and terrain height for the interpolation of wind speed. The spatial predictability of wind speed is found to be lower in summer than in winter due to more complex and weaker wind-topography relationships. The relevance of these relationships is studied using an adaptive version of the GRNN algorithm which allows to select the useful terrain features by eliminating the noisy ones. This research provides a framework for extending the low-dimensional interpolation models to high-dimensional spaces by integrating additional features accounting for the topographic conditions at multiple spatial scales. Copyright (c) 2012 Royal Meteorological Society.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Today, most software development teams use free and open source software (FOSS) components, because it increases the speed and the quality of the development. Many open source components are the de facto standard of their category. However, FOSS has licensing restrictions, and corporate organizations usually maintain a list of allowed and forbidden licenses. But how do you enforce this policy? How can you make sure that ALL files in your source depot, either belong to you, or fit your licensing policy? A first, preventive approach is to train and increase the awareness of the development team to these licensing issues. Depending on the size of the team, it may be costly but necessary. However, this does not ensure that a single individual will not commit a forbidden icon or library, and jeopardize the legal status of the whole release... if not the company, since software is becoming more and more a critical asset. Another approach is to verify what is included in the source repository, and check whether it belongs to the open-source world. This can be done on-the-fly, whenever a new file is added into the source depot. It can also be part of the release process, as a verification step before publishing the release. In both cases, there are some tools and databases to automate the detection process. We will present the various options regarding FOSS detection, how this process can be integrated in the "software factory", and how the results can be displayed in a usable and efficient way.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Drawing on a dialogical approach inspired by Bakhtin, we start from the assumptionthat a concrete discussion is an intermingling between dialogue in praesentia and dialogue inabsentia, and we refer to the notion of 'enunciative positioning' to account for the variousrelations that a speaker may express towards the voices that he or she invokes. Our data arebased on a first therapeutic interview between a therapist, a mother and a child in a counselingcenter for children and adolescents. We identify the various voices invoked in this interviewand show that three levels of discursive process were involved: (a) the speakers invokedabsent speakers; (b) at the same time they developed their own discourse on the basis of theirinterlocutors' discourse which (c) itself drew on absent speakers or voices. We highlight thevarious discursive processes through which the speakers integrate their own voice into absentvoices, or integrate a distant voice so that it loses its property of being a distant (andborrowed) voice. As a theoretical and methodological contribution to dialogism, our resultsshow that absent voices and their specific intermingling with hic et nunc exchanges were amajor resource for therapeutic changes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Voltage fluctuations caused by parasitic impedances in the power supply rails of modern ICs are a major concern in nowadays ICs. The voltage fluctuations are spread out to the diverse nodes of the internal sections causing two effects: a degradation of performances mainly impacting gate delays anda noisy contamination of the quiescent levels of the logic that drives the node. Both effects are presented together, in thispaper, showing than both are a cause of errors in modern and future digital circuits. The paper groups both error mechanismsand shows how the global error rate is related with the voltage deviation and the period of the clock of the digital system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The symbol transition density in a digitally modulated signal affects the performance of practical synchronization schemes designed for timing recovery. This paper focuses on the derivation of simple performance limits for the estimation of the time delay of a noisy linearly modulated signal in the presence of various degrees of symbol correlation produced by the varioustransition densities in the symbol streams. The paper develops high- and low-signal-to-noise ratio (SNR) approximations of the so-called (Gaussian) unconditional Cramér–Rao bound (UCRB),as well as general expressions that are applicable in all ranges of SNR. The derived bounds are valid only for the class of quadratic, non-data-aided (NDA) timing recovery schemes. To illustrate the validity of the derived bounds, they are compared with the actual performance achieved by some well-known quadratic NDA timing recovery schemes. The impact of the symbol transitiondensity on the classical threshold effect present in NDA timing recovery schemes is also analyzed. Previous work on performancebounds for timing recovery from various authors is generalized and unified in this contribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research of condition monitoring of electric motors has been wide for several decades. The research and development at universities and in industry has provided means for the predictive condition monitoring. Many different devices and systems are developed and are widely used in industry, transportation and in civil engineering. In addition, many methods are developed and reported in scientific arenas in order to improve existing methods for the automatic analysis of faults. The methods, however, are not widely used as a part of condition monitoring systems. The main reasons are, firstly, that many methods are presented in scientific papers but their performance in different conditions is not evaluated, secondly, the methods include parameters that are so case specific that the implementation of a systemusing such methods would be far from straightforward. In this thesis, some of these methods are evaluated theoretically and tested with simulations and with a drive in a laboratory. A new automatic analysis method for the bearing fault detection is introduced. In the first part of this work the generation of the bearing fault originating signal is explained and its influence into the stator current is concerned with qualitative and quantitative estimation. The verification of the feasibility of the stator current measurement as a bearing fault indicatoris experimentally tested with the running 15 kW induction motor. The second part of this work concentrates on the bearing fault analysis using the vibration measurement signal. The performance of the micromachined silicon accelerometer chip in conjunction with the envelope spectrum analysis of the cyclic bearing faultis experimentally tested. Furthermore, different methods for the creation of feature extractors for the bearing fault classification are researched and an automatic fault classifier using multivariate statistical discrimination and fuzzy logic is introduced. It is often important that the on-line condition monitoring system is integrated with the industrial communications infrastructure. Two types of a sensor solutions are tested in the thesis: the first one is a sensor withcalculation capacity for example for the production of the envelope spectra; the other one can collect the measurement data in memory and another device can read the data via field bus. The data communications requirements highly depend onthe type of the sensor solution selected. If the data is already analysed in the sensor the data communications are needed only for the results but in the other case, all measurement data need to be transferred. The complexity of the classification method can be great if the data is analysed at the management level computer, but if the analysis is made in sensor itself, the analyses must be simple due to the restricted calculation and memory capacity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Web-palvelut muodostavat keskeisen osan semanttista web:iä. Ne mahdollistavat nykyaikaisen ja tehokkaan välineistön hajautettuun laskentaan ja luovat perustan palveluperustaisille arkkitehtuureille. Verkottunut automatisoitu liiketoiminta edellyttää jatkuvaa aktiivisuutta kaikilta osapuolilta. Lisäksi sitä tukevan järjestelmäntulee olla joustava ja sen tulee tukea monipuolista toiminnallisuutta. Nämä tavoitteet voidaan saavuttamaan yhdistämällä web-palveluita. Yhdistämisprosessi muodostuu joukosta tehtäviä kuten esim. palveluiden mallintaminen, palveluiden koostaminen, palveluiden suorittaminen ja tarkistaminen. Työssä on toteutettu yksinkertainen liiketoimintaprosessi. Toteutuksen osalta tarkasteltiin vaihtoehtoisia standardeja ja toteutustekniikoita. Myös suorituksen optimointiin liittyvät näkökulmat pyrittiin ottamaan huomioon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to the large number of characteristics, there is a need to extract the most relevant characteristicsfrom the input data, so that the amount of information lost in this way is minimal, and the classification realized with the projected data set is relevant with respect to the original data. In order to achieve this feature extraction, different statistical techniques, as well as the principal components analysis (PCA) may be used. This thesis describes an extension of principal components analysis (PCA) allowing the extraction ofa finite number of relevant features from high-dimensional fuzzy data and noisy data. PCA finds linear combinations of the original measurement variables that describe the significant variation in the data. The comparisonof the two proposed methods was produced by using postoperative patient data. Experiment results demonstrate the ability of using the proposed two methods in complex data. Fuzzy PCA was used in the classificationproblem. The classification was applied by using the similarity classifier algorithm where total similarity measures weights are optimized with differential evolution algorithm. This thesis presents the comparison of the classification results based on the obtained data from the fuzzy PCA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diplomityön tavoitteena on rakentaa malli kohdeyrityksen yhden strategisen liiketoimintayksikön tuoteryhmänkohtaisten kannattavuuksien selvittämiseksi yli kokotoimitusketjun. Työssä on keskitytty vain välillisiin kustannuksiin ja välittömien kustannusten osalta on luotettu toiminnanohjausjärjestelmän antamiin tietoihin. Työn lähtökohtana ja teoreettisena viitekehikkona on toimintoperustainen kustannuslaskenta, jonka periaatteita noudattaen kannattavuusmalli rakennettiin. Mallin periaatteet on esitetty työssä mutta sen tuottamia tuloksia ei ole syvemmin analysoitu. Ongelma osoittautui haasteelliseksi ja tulosten verifiointi lähes mahdottomaksi käytettyjen subjektiivisten arvioiden ja ennalta odottamattomien välittömien tuotekustannusten suurten virheiden vuoksi. Työn johtopäätöksissä keskitytään sisäisen laskentatoimen kulttuurin kehittämiseen tuotekustannuslaskennan ja yleisen kustannusvalvonnan näkökulmasta kohdeyrityksessä.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uudistunut ympäristölainsäädäntö vaatii energiantuotantolaitoksilta yhä enemmän järjestelmällistä ympäristötiedon hallintaa. LCP- ja jätteenpolttoasetuksen velvoitteet ovat asettaneet uusia vaatimuksia päästöjen valvontaan ja siihen käytettävien mittausjärjestelmien laadunvarmennukseen sekä päästötietojen raportointiin. Uudistukset ovat lisänneet huomattavasti laitoksilla ympäristötiedon käsittelyyn kuluvaa aikaa. Laitosten toimintaehdot määritellään ympäristöviranomaisen myöntämässä ympäristöluvassa, joka on tärkein yksittäinen laitoksen toimintaa ohjaava tekijä. Tämän lisäksi monet toimijat haluavat parantaa ympäristöasioiden tasoaan vapaaehtoisilla ympäristöjärjestelmillä. Tässä diplomityössä kuvataan energiantuotantolaitosten ympäristöasioiden tallentamiseen ja hallintaan kehitetty selainpohjainen Metso Automationin DNAecoDiary'sovellus. Työ on rajattu koskemaan Suomessa toimivia LCP- ja/tai jätteenpolttoasetuksen alaisia laitoksia. Sovelluksen avulla voidaan varmistaa energiantuotantolaitosten poikkeamien, häiriöilmoitusten, päästömittalaitteisiin liittyvien tapahtumien ja muun ympäristöasioiden valvontaan liittyvän informaation tehokas hallinta. Sovellukseen tallennetaan ympäristötapahtumiin liittyvät perustiedot sekä etenkin käyttäjien tapahtumiin liittyvä kokemustietämys. Valvontakirjaukseen voidaan liittää tapahtuman perustietojen lisäksi myös tiedostoja ja kuvia. Sovellusta ja sillä kerättyä tietoa voidaan hyödyntää laitoksella käsilläolevien ongelmien ratkaisuun, ympäristötapahtumien todentamiseen sekä ympäristöraporttien laadintaan. Kehitystyön tueksi järjestettiin asiakastarvekartoitus, jonka perusteella ideoitiin sovelluksen ominaisuuksia. Tässä työssä on esitetty ympäristötiedon hallinan perusteet, selvitetty DNAecoDiaryn toimintaperiaatteet ja annettu esimerkkejä sen hyödyntämisestä. Sovelluksen lopullinen sisältö määritellään kunkin asiakkaan ympäristöluvan ja oma-valvonnan tarpeiden mukaisesti. Sovellus toimii itsenäisesti tai osana laajempaa Metso Automationin päästöjenhallinta- ja raportointisovelluskokonaisuutta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mikropiirien valmistus- ja suunnittelutekniikoiden kehittyminen mahdollistaa yhä monimutkaisempien mikropiirien valmistamisen. Piirien verifioinnista onkin tullut prosessin aikaa vievin osa,sillä kompleksisuuden kasvaessa kasvaa verifioinnin tarve eksponentiaalisesti. Vaikka erinäisiä strategioita piirien integroinnin verifiointiin on esitetty, mm. verifioinnin jakaminen koko suunnitteluprosessin ajalle, jopa yli puolet koko piirin suunnitteluun ja valmistukseen käytetystä työmäärästä kuluu verifiointiin. Uudelleenkäytettävät komponentit ovat pääosassa piirin suunnittelussa, mutta verifioinnissa uudelleenkäytettävyyttä ei ole otettu kunnolla käyttöön ainakaan verifiointiohjelmistojen osalta. Tämä diplomityö esittelee uudelleenkäytettävän mikropiirien verifiointiohjelmistoarkkitehtuurin, jolla saadaan verifiointitaakkaa vähennettyä poistamalla verifioinnissa käytettävien ohjelmistojen uudelleensuunnittelun ja toteuttamisen tarvetta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tässä diplomityössä esitellään ohjelmistotestauksen ja verifioinnin yleisiä periaatteita sekä käsitellään tarkemmin älypuhelinohjelmistojen verifiointia. Työssä esitellään myös älypuhelimissa käytettävä Symbian-käyttöjärjestelmä. Työn käytännön osuudessa suunniteltiin ja toteutettiin Symbian-käyttöjärjestelmässä toimiva palvelin, joka tarkkailee ja tallentaa järjestelmäresurssien käyttöä. Verifiointi on tärkeä ja kuluja aiheuttava tehtävä älypuhelinohjelmistojen kehityssyklissä. Kuluja voidaan vähentää automatisoimalla osa verifiointiprosessista. Toteutettu palvelin automatisoijärjestelmäresurssien tarkkailun tallentamalla tietoja niistä tiedostoon testien ajon aikana. Kun testit ajetaan uudestaan, uusia tuloksia vertaillaan lähdetallenteeseen. Jos tulokset eivät ole käyttäjän asettamien virherajojen sisällä, siitä ilmoitetaan käyttäjälle. Virherajojen ja lähdetallenteen määrittäminen saattaa osoittautua vaikeaksi. Kuitenkin, jos ne määritetään sopivasti, palvelin tuottaa hyödyllistä tietoa poikkeamista järjestelmäresurssien kulutuksessa testaajille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viime vuosikymmenien aikana kommunikaatioteknologiat ovat kehittyneet erittäin paljon. Uusia verkkoja, liityntätekniikoita, protokollia ja päätelaitteita on luotu alati kehittyvällä vauhdilla, eikä hidastumisen merkkejä ole näkyvissä. Varsinkin mobiilisovellukset ovat kasvattaneet markkinaosuuksiaan viime aikoina. Unlicensed MobileAccess (UMA) on uusi liityntätekniikka mobiilipäätelaitteille, joka mahdollistaa liitynnän GSM- runkoverkkoon WLAN- tai Bluetooth - tekniikoiden avulla. Tämä diplomityö keskittyy UMAan liittyviin teknologioihin, joita tarkastellaan lähemmin ensimmäisissä kappaleissa. Tavoitteena on esitellä, mitä UMA merkitsee, ja kuinka eri tekniikoita voidaan soveltaa sen toteutuksissa. Ennenkuin uusia teknologioita voidaan soveltaa kaupallisesti, täytyy niiden olla kokonaisvaltaisesti testattuja. Erilaisia testausmenetelmiä sovelletaan laitteistonja ohjelmiston testaukseen, mutta tavoite on kuitenkin sama, eli vähentää testattavan tuotteen epäluotettavuutta ja lisätä sen laatua. Vaikka UMA käsittääkin pääasiassa jo olemassa olevia tekniikoita, tuo se silti mukanaan uuden verkkoelementin ja kaksi uutta kommunikaatioprotokollaa. Ennen kuin mitään UMAa tukevia ratkaisuja voidaan tuoda markkinoille, monia erilaisia testausmenetelmiä on suoritettava, jotta varmistutaan uuden tuotteen oikeasta toiminnallisuudesta. Koska tämä diplomityö käsittelee uutta tekniikkaa, on myös testausmenetelmien yleisen testausteorian käsittelemiselle varattu oma kappale. Kappale esittelee erilaisia testauksen näkökulmia ja niihin perustuen rakennetaan myös testausohjelmisto. Tavoitteena on luoda ohjelmisto, jota voidaan käyttää UMA-RR protokollan toiminnan varmentamiseen kohdeympäristössä.