965 resultados para Speaker verification
Resumo:
Mixture materials, mix design, and pavement construction are not isolated steps in the concrete paving process. Each affects the other in ways that determine overall pavement quality and long-term performance. However, equipment and procedures commonly used to test concrete materials and concrete pavements have not changed in decades, leaving gaps in our ability to understand and control the factors that determine concrete durability. The concrete paving community needs tests that will adequately characterize the materials, predict interactions, and monitor the properties of the concrete. The overall objectives of this study are (1) to evaluate conventional and new methods for testing concrete and concrete materials to prevent material and construction problems that could lead to premature concrete pavement distress and (2) to examine and refine a suite of tests that can accurately evaluate concrete pavement properties. The project included three phases. In Phase I, the research team contacted each of 16 participating states to gather information about concrete and concrete material tests. A preliminary suite of tests to ensure long-term pavement performance was developed. The tests were selected to provide useful and easy-to-interpret results that can be performed reasonably and routinely in terms of time, expertise, training, and cost. The tests examine concrete pavement properties in five focal areas critical to the long life and durability of concrete pavements: (1) workability, (2) strength development, (3) air system, (4) permeability, and (5) shrinkage. The tests were relevant at three stages in the concrete paving process: mix design, preconstruction verification, and construction quality control. In Phase II, the research team conducted field testing in each participating state to evaluate the preliminary suite of tests and demonstrate the testing technologies and procedures using local materials. A Mobile Concrete Research Lab was designed and equipped to facilitate the demonstrations. This report documents the results of the 16 state projects. Phase III refined and finalized lab and field tests based on state project test data. The results of the overall project are detailed herein. The final suite of tests is detailed in the accompanying testing guide.
Resumo:
This report is concerned with the prediction of the long-time creep and shrinkage behavior of concrete. It is divided into three main areas. l. The development of general prediction methods that can be used by a design engineer when specific experimental data are not available. 2. The development of prediction methods based on experimental data. These methods take advantage of equations developed in item l, and can be used to accurately predict creep and shrinkage after only 28 days of data collection. 3. Experimental verification of items l and 2, and the development of specific prediction equations for four sand-lightweight aggregate concretes tested in the experimental program. The general prediction equations and methods are developed in Chapter II. Standard Equations to estimate the creep of normal weight concrete (Eq. 9), sand-lightweight concrete (Eq. 12), and lightweight concrete (Eq. 15) are recommended. These equations are developed for standard conditions (see Sec. 2. 1) and correction factors required to convert creep coefficients obtained from equations 9, 12, and 15 to valid predictions for other conditions are given in Equations 17 through 23. The correction factors are shown graphically in Figs. 6 through 13. Similar equations and methods are developed for the prediction of the shrinkage of moist cured normal weight concrete (Eq. 30}, moist cured sand-lightweight concrete (Eq. 33}, and moist cured lightweight concrete (Eq. 36). For steam cured concrete the equations are Eq. 42 for normal weight concrete, and Eq. 45 for lightweight concrete. Correction factors are given in Equations 47 through 52 and Figs., 18 through 24. Chapter III summarizes and illustrates, by examples, the prediction methods developed in Chapter II. Chapters IV and V describe an experimental program in which specific prediction equations are developed for concretes made with Haydite manufactured by Hydraulic Press Brick Co. (Eqs. 53 and 54}, Haydite manufactured by Buildex Inc. (Eqs. 55 and 56), Haydite manufactured by The Cater-Waters Corp. (Eqs. 57 and 58}, and Idealite manufactured by Idealite Co. (Eqs. 59 and 60). General prediction equations are also developed from the data obtained in the experimental program (Eqs. 61 and 62) and are compared to similar equations developed in Chapter II. Creep and Shrinkage prediction methods based on 28 day experimental data are developed in Chapter VI. The methods are verified by comparing predicted and measured values of the long-time creep and shrinkage of specimens tested at the University of Iowa (see Chapters IV and V) and elsewhere. The accuracy obtained is shown to be superior to other similar methods available to the design engineer.
Resumo:
In this paper we use a Terahertz (THz) time-domain system to image and analyze the structure of an artwork attributed to the Spanish artist Goya painted in 1771. The THz images show features that cannot be seen with optical inspection and complement data obtained with X-ray imaging that provide evidence of its authenticity, which is validated by other independent studies. For instance, a feature with a strong resemblance with one of Goya"s known signatures is seen in the THz images. In particular, this paper demonstrates the potential of THz imaging as a complementary technique along with X-ray for the verification and authentication of artwork pieces through the detection of features that remain hidden to optical inspection.
Resumo:
Wiss, Janney, Elstner Associates, Inc. (WJE) evaluated potential nondestructive evaluation (NDE) methodologies that may be effective in 1) identifying internal defects within slip formed concrete barriers and 2) assessing the corrosion condition of barrier dowel bars. The evaluation was requested by the Bridge Maintenance and Inspection Unit of the Iowa Department of Transportation (IaDOT) and the Bureau of Bridges and Structures of the Illinois Department of Transportation (IDOT). The need arose due to instances in each Department’s existing inventory of bridge barriers where internal voids and other defects associated with slip forming construction methods were attributed to poor barrier performance after completion of construction and where, in other barrier walls, unintentional exposure of the dowel bars revealed extensive corrosion-related section loss at previously uninspectable locations, reducing the capacity of the barriers to resist traffic impact loads. WJE trial tested potential NDE techniques on laboratory mock-up samples built with known defects, trial sections of cast-in-place barriers at in-service bridges in Iowa, and slip formed and cast-in-place barrier walls at in-service bridges in Illinois. The work included review of available studies performed by others, field trial testing to assess candidate test methods, verification of the test methods in identifying internal anomalies and dowel bar corrosion, and preparation of this report and nondestructive evaluation guidelines.
Resumo:
Today, most software development teams use free and open source software (FOSS) components, because it increases the speed and the quality of the development. Many open source components are the de facto standard of their category. However, FOSS has licensing restrictions, and corporate organizations usually maintain a list of allowed and forbidden licenses. But how do you enforce this policy? How can you make sure that ALL files in your source depot, either belong to you, or fit your licensing policy? A first, preventive approach is to train and increase the awareness of the development team to these licensing issues. Depending on the size of the team, it may be costly but necessary. However, this does not ensure that a single individual will not commit a forbidden icon or library, and jeopardize the legal status of the whole release... if not the company, since software is becoming more and more a critical asset. Another approach is to verify what is included in the source repository, and check whether it belongs to the open-source world. This can be done on-the-fly, whenever a new file is added into the source depot. It can also be part of the release process, as a verification step before publishing the release. In both cases, there are some tools and databases to automate the detection process. We will present the various options regarding FOSS detection, how this process can be integrated in the "software factory", and how the results can be displayed in a usable and efficient way.
Resumo:
Drawing on a dialogical approach inspired by Bakhtin, we start from the assumptionthat a concrete discussion is an intermingling between dialogue in praesentia and dialogue inabsentia, and we refer to the notion of 'enunciative positioning' to account for the variousrelations that a speaker may express towards the voices that he or she invokes. Our data arebased on a first therapeutic interview between a therapist, a mother and a child in a counselingcenter for children and adolescents. We identify the various voices invoked in this interviewand show that three levels of discursive process were involved: (a) the speakers invokedabsent speakers; (b) at the same time they developed their own discourse on the basis of theirinterlocutors' discourse which (c) itself drew on absent speakers or voices. We highlight thevarious discursive processes through which the speakers integrate their own voice into absentvoices, or integrate a distant voice so that it loses its property of being a distant (andborrowed) voice. As a theoretical and methodological contribution to dialogism, our resultsshow that absent voices and their specific intermingling with hic et nunc exchanges were amajor resource for therapeutic changes.
Resumo:
The research of condition monitoring of electric motors has been wide for several decades. The research and development at universities and in industry has provided means for the predictive condition monitoring. Many different devices and systems are developed and are widely used in industry, transportation and in civil engineering. In addition, many methods are developed and reported in scientific arenas in order to improve existing methods for the automatic analysis of faults. The methods, however, are not widely used as a part of condition monitoring systems. The main reasons are, firstly, that many methods are presented in scientific papers but their performance in different conditions is not evaluated, secondly, the methods include parameters that are so case specific that the implementation of a systemusing such methods would be far from straightforward. In this thesis, some of these methods are evaluated theoretically and tested with simulations and with a drive in a laboratory. A new automatic analysis method for the bearing fault detection is introduced. In the first part of this work the generation of the bearing fault originating signal is explained and its influence into the stator current is concerned with qualitative and quantitative estimation. The verification of the feasibility of the stator current measurement as a bearing fault indicatoris experimentally tested with the running 15 kW induction motor. The second part of this work concentrates on the bearing fault analysis using the vibration measurement signal. The performance of the micromachined silicon accelerometer chip in conjunction with the envelope spectrum analysis of the cyclic bearing faultis experimentally tested. Furthermore, different methods for the creation of feature extractors for the bearing fault classification are researched and an automatic fault classifier using multivariate statistical discrimination and fuzzy logic is introduced. It is often important that the on-line condition monitoring system is integrated with the industrial communications infrastructure. Two types of a sensor solutions are tested in the thesis: the first one is a sensor withcalculation capacity for example for the production of the envelope spectra; the other one can collect the measurement data in memory and another device can read the data via field bus. The data communications requirements highly depend onthe type of the sensor solution selected. If the data is already analysed in the sensor the data communications are needed only for the results but in the other case, all measurement data need to be transferred. The complexity of the classification method can be great if the data is analysed at the management level computer, but if the analysis is made in sensor itself, the analyses must be simple due to the restricted calculation and memory capacity.
Resumo:
Web-palvelut muodostavat keskeisen osan semanttista web:iä. Ne mahdollistavat nykyaikaisen ja tehokkaan välineistön hajautettuun laskentaan ja luovat perustan palveluperustaisille arkkitehtuureille. Verkottunut automatisoitu liiketoiminta edellyttää jatkuvaa aktiivisuutta kaikilta osapuolilta. Lisäksi sitä tukevan järjestelmäntulee olla joustava ja sen tulee tukea monipuolista toiminnallisuutta. Nämä tavoitteet voidaan saavuttamaan yhdistämällä web-palveluita. Yhdistämisprosessi muodostuu joukosta tehtäviä kuten esim. palveluiden mallintaminen, palveluiden koostaminen, palveluiden suorittaminen ja tarkistaminen. Työssä on toteutettu yksinkertainen liiketoimintaprosessi. Toteutuksen osalta tarkasteltiin vaihtoehtoisia standardeja ja toteutustekniikoita. Myös suorituksen optimointiin liittyvät näkökulmat pyrittiin ottamaan huomioon.
Resumo:
Diplomityön tavoitteena on rakentaa malli kohdeyrityksen yhden strategisen liiketoimintayksikön tuoteryhmänkohtaisten kannattavuuksien selvittämiseksi yli kokotoimitusketjun. Työssä on keskitytty vain välillisiin kustannuksiin ja välittömien kustannusten osalta on luotettu toiminnanohjausjärjestelmän antamiin tietoihin. Työn lähtökohtana ja teoreettisena viitekehikkona on toimintoperustainen kustannuslaskenta, jonka periaatteita noudattaen kannattavuusmalli rakennettiin. Mallin periaatteet on esitetty työssä mutta sen tuottamia tuloksia ei ole syvemmin analysoitu. Ongelma osoittautui haasteelliseksi ja tulosten verifiointi lähes mahdottomaksi käytettyjen subjektiivisten arvioiden ja ennalta odottamattomien välittömien tuotekustannusten suurten virheiden vuoksi. Työn johtopäätöksissä keskitytään sisäisen laskentatoimen kulttuurin kehittämiseen tuotekustannuslaskennan ja yleisen kustannusvalvonnan näkökulmasta kohdeyrityksessä.
Resumo:
Uudistunut ympäristölainsäädäntö vaatii energiantuotantolaitoksilta yhä enemmän järjestelmällistä ympäristötiedon hallintaa. LCP- ja jätteenpolttoasetuksen velvoitteet ovat asettaneet uusia vaatimuksia päästöjen valvontaan ja siihen käytettävien mittausjärjestelmien laadunvarmennukseen sekä päästötietojen raportointiin. Uudistukset ovat lisänneet huomattavasti laitoksilla ympäristötiedon käsittelyyn kuluvaa aikaa. Laitosten toimintaehdot määritellään ympäristöviranomaisen myöntämässä ympäristöluvassa, joka on tärkein yksittäinen laitoksen toimintaa ohjaava tekijä. Tämän lisäksi monet toimijat haluavat parantaa ympäristöasioiden tasoaan vapaaehtoisilla ympäristöjärjestelmillä. Tässä diplomityössä kuvataan energiantuotantolaitosten ympäristöasioiden tallentamiseen ja hallintaan kehitetty selainpohjainen Metso Automationin DNAecoDiary'sovellus. Työ on rajattu koskemaan Suomessa toimivia LCP- ja/tai jätteenpolttoasetuksen alaisia laitoksia. Sovelluksen avulla voidaan varmistaa energiantuotantolaitosten poikkeamien, häiriöilmoitusten, päästömittalaitteisiin liittyvien tapahtumien ja muun ympäristöasioiden valvontaan liittyvän informaation tehokas hallinta. Sovellukseen tallennetaan ympäristötapahtumiin liittyvät perustiedot sekä etenkin käyttäjien tapahtumiin liittyvä kokemustietämys. Valvontakirjaukseen voidaan liittää tapahtuman perustietojen lisäksi myös tiedostoja ja kuvia. Sovellusta ja sillä kerättyä tietoa voidaan hyödyntää laitoksella käsilläolevien ongelmien ratkaisuun, ympäristötapahtumien todentamiseen sekä ympäristöraporttien laadintaan. Kehitystyön tueksi järjestettiin asiakastarvekartoitus, jonka perusteella ideoitiin sovelluksen ominaisuuksia. Tässä työssä on esitetty ympäristötiedon hallinan perusteet, selvitetty DNAecoDiaryn toimintaperiaatteet ja annettu esimerkkejä sen hyödyntämisestä. Sovelluksen lopullinen sisältö määritellään kunkin asiakkaan ympäristöluvan ja oma-valvonnan tarpeiden mukaisesti. Sovellus toimii itsenäisesti tai osana laajempaa Metso Automationin päästöjenhallinta- ja raportointisovelluskokonaisuutta.
Resumo:
Mikropiirien valmistus- ja suunnittelutekniikoiden kehittyminen mahdollistaa yhä monimutkaisempien mikropiirien valmistamisen. Piirien verifioinnista onkin tullut prosessin aikaa vievin osa,sillä kompleksisuuden kasvaessa kasvaa verifioinnin tarve eksponentiaalisesti. Vaikka erinäisiä strategioita piirien integroinnin verifiointiin on esitetty, mm. verifioinnin jakaminen koko suunnitteluprosessin ajalle, jopa yli puolet koko piirin suunnitteluun ja valmistukseen käytetystä työmäärästä kuluu verifiointiin. Uudelleenkäytettävät komponentit ovat pääosassa piirin suunnittelussa, mutta verifioinnissa uudelleenkäytettävyyttä ei ole otettu kunnolla käyttöön ainakaan verifiointiohjelmistojen osalta. Tämä diplomityö esittelee uudelleenkäytettävän mikropiirien verifiointiohjelmistoarkkitehtuurin, jolla saadaan verifiointitaakkaa vähennettyä poistamalla verifioinnissa käytettävien ohjelmistojen uudelleensuunnittelun ja toteuttamisen tarvetta.
Resumo:
Tässä diplomityössä esitellään ohjelmistotestauksen ja verifioinnin yleisiä periaatteita sekä käsitellään tarkemmin älypuhelinohjelmistojen verifiointia. Työssä esitellään myös älypuhelimissa käytettävä Symbian-käyttöjärjestelmä. Työn käytännön osuudessa suunniteltiin ja toteutettiin Symbian-käyttöjärjestelmässä toimiva palvelin, joka tarkkailee ja tallentaa järjestelmäresurssien käyttöä. Verifiointi on tärkeä ja kuluja aiheuttava tehtävä älypuhelinohjelmistojen kehityssyklissä. Kuluja voidaan vähentää automatisoimalla osa verifiointiprosessista. Toteutettu palvelin automatisoijärjestelmäresurssien tarkkailun tallentamalla tietoja niistä tiedostoon testien ajon aikana. Kun testit ajetaan uudestaan, uusia tuloksia vertaillaan lähdetallenteeseen. Jos tulokset eivät ole käyttäjän asettamien virherajojen sisällä, siitä ilmoitetaan käyttäjälle. Virherajojen ja lähdetallenteen määrittäminen saattaa osoittautua vaikeaksi. Kuitenkin, jos ne määritetään sopivasti, palvelin tuottaa hyödyllistä tietoa poikkeamista järjestelmäresurssien kulutuksessa testaajille.
Resumo:
Viime vuosikymmenien aikana kommunikaatioteknologiat ovat kehittyneet erittäin paljon. Uusia verkkoja, liityntätekniikoita, protokollia ja päätelaitteita on luotu alati kehittyvällä vauhdilla, eikä hidastumisen merkkejä ole näkyvissä. Varsinkin mobiilisovellukset ovat kasvattaneet markkinaosuuksiaan viime aikoina. Unlicensed MobileAccess (UMA) on uusi liityntätekniikka mobiilipäätelaitteille, joka mahdollistaa liitynnän GSM- runkoverkkoon WLAN- tai Bluetooth - tekniikoiden avulla. Tämä diplomityö keskittyy UMAan liittyviin teknologioihin, joita tarkastellaan lähemmin ensimmäisissä kappaleissa. Tavoitteena on esitellä, mitä UMA merkitsee, ja kuinka eri tekniikoita voidaan soveltaa sen toteutuksissa. Ennenkuin uusia teknologioita voidaan soveltaa kaupallisesti, täytyy niiden olla kokonaisvaltaisesti testattuja. Erilaisia testausmenetelmiä sovelletaan laitteistonja ohjelmiston testaukseen, mutta tavoite on kuitenkin sama, eli vähentää testattavan tuotteen epäluotettavuutta ja lisätä sen laatua. Vaikka UMA käsittääkin pääasiassa jo olemassa olevia tekniikoita, tuo se silti mukanaan uuden verkkoelementin ja kaksi uutta kommunikaatioprotokollaa. Ennen kuin mitään UMAa tukevia ratkaisuja voidaan tuoda markkinoille, monia erilaisia testausmenetelmiä on suoritettava, jotta varmistutaan uuden tuotteen oikeasta toiminnallisuudesta. Koska tämä diplomityö käsittelee uutta tekniikkaa, on myös testausmenetelmien yleisen testausteorian käsittelemiselle varattu oma kappale. Kappale esittelee erilaisia testauksen näkökulmia ja niihin perustuen rakennetaan myös testausohjelmisto. Tavoitteena on luoda ohjelmisto, jota voidaan käyttää UMA-RR protokollan toiminnan varmentamiseen kohdeympäristössä.
Resumo:
Ydinvoimalaitokset on suunniteltu ja rakennettu niin, että niillä on kyky selviytyä erilaisista käyttöhäiriöistä ja onnettomuuksista ilman laitoksen vahingoittumista sekä väestön ja ympäristön vaarantumista. On erittäin epätodennäköistä, että ydinvoimalaitosonnettomuus etenee reaktorisydämen vaurioitumiseen asti, minkä seurauksena sydänmateriaalien hapettuminen voi tuottaa vetyä. Jäädytyspiirin rikkoutumisen myötä vety saattaa kulkeutua ydinvoimalaitoksen suojarakennukseen, jossa se voi muodostaa palavan seoksen ilman hapen kanssa ja palaa tai jopa räjähtää. Vetypalosta aiheutuvat lämpötila- ja painekuormitukset vaarantavat suojarakennuksen eheyden ja suojarakennuksen sisällä olevien turvajärjestelmien toimivuuden, joten tehokas ja luotettava vedynhallintajärjestelmä on tarpeellinen. Passiivisia autokatalyyttisiä vetyrekombinaattoreita käytetäänyhä useammissa Euroopan ydinvoimaitoksissa vedynhallintaan. Nämä rekombinaattorit poistavat vetyä katalyyttisellä reaktiolla vedyn reagoidessa katalyytin pinnalla hapen kanssa muodostaen vesihöyryä. Rekombinaattorit ovat täysin passiivisiaeivätkä tarvitse ulkoista energiaa tai operaattoritoimintaa käynnistyäkseen taitoimiakseen. Rekombinaattoreiden käyttäytymisen tutkimisellatähdätään niiden toimivuuden selvittämiseen kaikissa mahdollisissa onnettomuustilanteissa, niiden suunnittelun optimoimiseen sekä niiden optimaalisen lukumäärän ja sijainnin määrittämiseen suojarakennuksessa. Suojarakennuksen mallintamiseen käytetään joko keskiarvoistavia ohjelmia (Lumped parameter (LP) code), moniulotteisia virtausmalliohjelmia (Computational Fluid Dynamics, CFD) tai näiden yhdistelmiä. Rekombinaattoreiden mallintaminen on toteutettu näissä ohjelmissa joko kokeellisella, teoreettisella tai yleisellä (eng. Global Approach) mallilla. Tämä diplomityö sisältää tulokset TONUS OD-ohjelman sisältämän Siemens FR90/1-150 rekombinaattorin mallin vedynkulutuksen tarkistuslaskuista ja TONUS OD-ohjelmalla suoritettujen laskujen tulokset Siemens rekombinaattoreiden vuorovaikutuksista. TONUS on CEA:n (Commissariat à 1'En¬ergie Atomique) kehittämä LP (OD) ja CFD -vetyanalyysiohjelma, jota käytetään vedyn jakautumisen, palamisenja detonaation mallintamiseen. TONUS:sta käytetään myös vedynpoiston mallintamiseen passiivisilla autokatalyyttisillä rekombinaattoreilla. Vedynkulutukseen vaikuttavat tekijät eroteltiin ja tutkittiin yksi kerrallaan. Rekombinaattoreiden vuorovaikutuksia tutkittaessa samaan tilavuuteen sijoitettiin eri kokoisia ja eri lukumäärä rekombinaattoreita. Siemens rekombinaattorimalli TONUS OD-ohjelmassa laskee vedynkulutuksen kuten oletettiin ja tulokset vahvistavat TONUS OD-ohjelman fysikaalisen laskennan luotettavuuden. Mahdollisia paikallisia jakautumia tutkitussa tilavuudessa ei voitu havaita LP-ohjelmalla, koska se käyttäälaskennassa suureiden tilavuuskeskiarvoja. Paikallisten jakautumien tutkintaan tarvitaan CFD -laskentaohjelma.
Resumo:
Diplomityön tavoitteena on tutkia ja kehittää muovituotteen valmistuskonseptien verifiointimenetelmiä ja luoda malli, jolla saadaan esituotantovaiheestalähtien parannettu tuotantoprosessi massatuotannon aloittamiseen (ramp up). Työn tavoitteena on myös toimia viestintäkeinona lisäämässä organisaation tietoisuutta esituotantovaiheen tärkeydestä. Työ pohjautuu tekijän aikaisempaan tutkimukseen "esituotantoprosessista oppimisen vaikutukset massatuotannon aloitukseen", joka on tehty erikoistyönä v.2006. Tutkimus menetelminä on käytetty pääasiassa prosessien kuvaamista, benchmarkingia, asiantuntijoiden haastatteluja sekä analysoitu toteutuneita projekteja. Lopputuloksena on saatu toimintamalli, joka vastaa hyvin pitkälle prosessien kuvausten aikana syntynyttä mallia. Keskeisenä ajatuksena on valmistuskonseptin verifioinnin kytkeminen tuotteen mekaniikkasuunnittelun kypsyyteen. Koko projektia koskevien tavoitteiden määrittäminen johdetaan ramp up tavoitteista. Verifioitavaksi valitaan kriittisin tuote ja prosessi. Tähän on teoreettisena viitekehyksenä käytetty Quality Function Deployment (QFD) menetelmää. Jatkotoimenpiteiksi esitetään ramp up tavoitteiden ja mittareiden kehittämistä, joilla pystytään seuraamaan ja ohjaamaan projektia jo heti alusta alkaen. Lisätutkimusta tarvitaan myös esituotannon aikaisten prosessiparametrien suunnitteluun ja optimointiin.