39 resultados para Normalization constraint
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Mass spectrometry (MS)-based proteomics has seen significant technical advances during the past two decades and mass spectrometry has become a central tool in many biosciences. Despite the popularity of MS-based methods, the handling of the systematic non-biological variation in the data remains a common problem. This biasing variation can result from several sources ranging from sample handling to differences caused by the instrumentation. Normalization is the procedure which aims to account for this biasing variation and make samples comparable. Many normalization methods commonly used in proteomics have been adapted from the DNA-microarray world. Studies comparing normalization methods with proteomics data sets using some variability measures exist. However, a more thorough comparison looking at the quantitative and qualitative differences of the performance of the different normalization methods and at their ability in preserving the true differential expression signal of proteins, is lacking. In this thesis, several popular and widely used normalization methods (the Linear regression normalization, Local regression normalization, Variance stabilizing normalization, Quantile-normalization, Median central tendency normalization and also variants of some of the forementioned methods), representing different strategies in normalization are being compared and evaluated with a benchmark spike-in proteomics data set. The normalization methods are evaluated in several ways. The performance of the normalization methods is evaluated qualitatively and quantitatively on a global scale and in pairwise comparisons of sample groups. In addition, it is investigated, whether performing the normalization globally on the whole data or pairwise for the comparison pairs examined, affects the performance of the normalization method in normalizing the data and preserving the true differential expression signal. In this thesis, both major and minor differences in the performance of the different normalization methods were found. Also, the way in which the normalization was performed (global normalization of the whole data or pairwise normalization of the comparison pair) affected the performance of some of the methods in pairwise comparisons. Differences among variants of the same methods were also observed.
Resumo:
Infektiivinen endokardiitti yliopistollisessa keskussairaalassa vuosina 1980-2004 hoidetuilla aikuispotilailla Tausta: Infektiivinen endokardiitti on edelleen vakava sairaus. Huolimatta siitä, että taudin diagnostiikka ja hoito ovat kehittyneet, siihen liittyy edelleen merkittävää sairastuvuutta ja kuolleisuutta. Endokardiitin taudinkuvassa on viime vuosina tapahtunut muutoksia monissa maissa. Tavoitteet: Tutkia endokardiitin kliinista kuvaa ja ennustetta suomalaisessa yliopistosairaalassa vuosina 1980-2004 endokardiitin vuoksi hoidetuilla aikuispotilailla. Aineisto: Osatyössä I endokardiitin todennäköisyyttä analysoitiin 222:lla vuosina 1980-1995 endokardiittiepäilyn vuoksi hoidetulla potilaalla käyttäen apuna sekä Duken että von Reyn diagnostisia kriteereitä. Osatyössä II tutkittiin endokardiittiin liittyviä neurologisia komplikaatioita 218 varmassa tai mahdollisessa endokardiittiepisodissa. Osatyössä III tutkittiin seerumin C-reaktiivisen proteiinin (CRP) käyttökelpoisuutta hoitovasteen arvioinnissa 134:ssä varmaksi luokitellussa endokardiittiepisodissa. Osatyössä IV tutkittiin yleisbakteeri-PCRmenetelmän käyttökelpoisuutta etiologisessa diagnostiikassa 56:lla endokardiittiepäilyn vuoksi leikatulla potilaalla. Osatöissä V ja VI analysoitiin kaikki vuosina 1980-2004 hoidetut 303 endokardiittipotilasta lyhytaikais- ja 1-vuotisennusteen suhteen sekä tutkittiin endokardiitin taudinkuvassa tapahtuneita muutoksia sairaalassamme. Tulokset: Duken kriteerit osoittautuivat von Reyn kriteereitä herkemmiksi endokardiitin diagnostiikassa: 243 tutkitusta episodista 114 luokiteltiin varmoiksi endokardiiteiksi Duken kriteereillä, kun vastaavasti ainoastaan 64 luoteltiin varmoiksi von Reyn kriteereillä (p<0.001). Lisäksi peräti 115 episodissa endokardiitin diagnoosi hylättiin von Reyn kriteereillä, kun diagnoosi hylättiin Duken kriteereillä ainoastaan 37 episodissa (p<0.001). Neurologinen komplikaatio ilmeni ennen mikrobilääkehoidon aloittamista 76 %:ssa episodeja ollen ensimmäinen oire 47 %:ssa. Kuolema oli merkitsevästi yhteydessä neurologisiin komplikaatioihin. Hoitovastetta seurattaessa seerumin CRP:n lasku oli merkitsevästi nopeampaa komplikaatioitta toipuvilla potilailla kuin niillä, joille kehittyi komplikaatioita tai jotka menehtyivät tautiinsa. PCR-tutkimus poistetusta läpästä antoi ainoana menetelmänä etiologisen diagnoosin neljässä tapauksessa (2 stafylokokkilajia, 1 Streptococcus bovis,1 Bartonella quintana), joissa kaikissa mikrobilääkehoito oli ollut käytössä ennen näytteiden ottamista. Koko aineistossa kahden läpän infektio tai neurologisten komplikaatioiden, perifeeristen embolioiden tai sydämen vajaatoiminnan kehittyminen ennustivat sekä sairaalakuolleisuutta että 1-vuotiskuolleisuutta, kun taas ≥65 vuoden ikä ja sydämen ultraäänitutkimuksessa todettu vegetaatio tai Duken luokittelun mukainen pääkriteeri ennustivat kuolemaa vuoden sisällä. Korkea CRP-taso sairaalaan tullessa ennusti sekä sairaalakuolleisuutta että 1-vuotiskuolleisuutta. Huumeiden käyttäjien endokardiitit lisääntyivät tutkimusaikana merkitsevästi (p<0.001). Päätelmät: Tässä työssä vahvistetaan Duken kriteerien käyttökelpoisuus endokardiitin diagnostiikassa. Lisäksi vahvistui käsitys, että nopea diagnoosi ja mikrobilääkehoidon aloittaminen ovat parhaat keinot ehkäistä neurologisia komplikaatioita ja parantaa endokardiittipotilaiden ennustetta. CRP:n normalisoituminen on endokardiittipotilailla hyvän ennusteen merkki. Suoraan läppäkudoksesta tehty PCR-tutkimus on hyödyllinen, kun taudin aiheuttaja on kasvuominaisuuksiltaan vaativa tai potilas on saanut mikrobilääkehoitoa ennen viljelynäytteiden ottamista. Muutamat aiemmissa tutkimuksissa todetut huonon ennusteen merkit ennustavat huonoa ennustetta myös tämän tutkimuksen potilailla. Uutena löydöksenä ilmeni, että korkea CRP-arvo sairaalaan tullessa merkitsee sekä huonoa lyhyt- että pitkäaikaisennustetta. Huumeiden käyttäjien endokardiittien ilmaantuminen on tärkein epidemiologinen muutos 25 vuoden tutkimusaikana.
Resumo:
Paperikoneen hoitotason muodostaa kantava kehikkorakenne sekä kehikkorakenteiden tuennat. Kantavan kehikkorakenteen valmistuson perinteistä hitsaavaa konepajatuotantoa. Työssä esitetään ratkaisuja valmistuksen kehittämiseen, näiden avulla on tavoitteena pudottaa valmistuksen läpimenoaikaa ja lopullisesti vastata kiristyneeseen kilpailutilanteeseen. Laajempana tavoitteena on osoittaa automaation mahdollisuudet kyseiseen tuotantoon. Alumiinisten rakenteiden toimitukset ovat jatkuvasti kasvaneet. Tähän rakenneryhmään haluttiin panostaa ja tehdä tuotteesta markkinoiden paras sekä kehittää valmistusta, jotta voitaisiin vastata kilpailuun ja lyhyisiin toimitusaikoihin. Työssä esitettävät ratkaisut on suunnattu alumiinisen kantavan kehikon valmistuksen kehittämiseen. Valmistuksen kehittäminen käsittää tuotteen rakennekomponenttien suunnittelemista valmistuksen kannalta, automaation lisäämistä osavalmistukseen sekä hitsauksen kevytmekanisointia.
Resumo:
This report illustrates a comparative study of various joining methods involved in sheet metal production. In this report it shows the selection of joining methods, which includes comparing the advantages and disadvantages of a method over the other ones and choosing the best method for joining. On the basis of various joining process from references, a table is generated containing set of criterion that helps in evaluation of various sheet metal joining processes and in selecting the most suitable process for a particular product. Three products are selected and a comprehensive study of the joining methods is analyzed with the help of various parameters. The table thus is the main part of the analysis process of this study and can be advanced with the beneficial results. It helps in a better and easy understanding and comparing the various methods, which provides the foundation of this study and analysis. The suitability of the joining method for various types of cases of different sheet metal products can be tested with the help of this table. The sections of the created table display the requirements of manufacturing. The important factor has been considered and given focus in the table, as how the usage of these parameters is important in percentages according to particular or individual case. The analysis of the methods can be extended or altered by changing the parameters according to the constraint. The use of this table is demonstrated by pertaining the cases from sheet metal production.
Resumo:
Tämä diplomityö on tehty Hollming Works Oy:n Loviisan yksikölle. Työn tekovaiheessa yrityksessä oltiin aloittamassa tuulivoimalakoneikkojen sarjatyönä tapahtuvaa kokoonpanoa. Työn tavoitteena oli kehittää koneikkojen kokoonpanoverstaan toimintaa. Ennen työn alkua yritykseen oli perustettu tuulivoimalakoneikkojen kokoonpanoon tuoteverstas. Verstaalla kootaan raskaita osakokoonpanoja, jotka lopulta yhdistetään koneikoksi, jota kutsutaan myös naselliksi. Tämän jälkeen varusteluvaiheessa koneikkoon asennetaan mm. erilaisia sähköisiä ja hydraulisia järjestelmiä. Varusteluvaiheen päätteeksi koneikon toiminta testataan. Viimeisenä vaiheenakoneikon päälle asennetaan lasikuitukuori. Työn alkuosassa on käyty läpi tuotannon- ja materiaalinohjauksen perusteita, kokoonpanon kehittämistä ja layout-suunnittelua, jonka pohjalta tuulivoimalaverstaalle tehtiin kokoonpanosoluihin perustuva layoutsuunnitelma. Tuotannonohjaus suunnitelmassa perustuu kapeikko-ohjaukseen. Tuotannon kapeikon muodostava varusteluvaihe imee aiemmista vaiheista osakokoonpanot. Varusteluvaiheen ja testauksen jälkeen koneikko siirtyytyöntöohjatusti lasikuitukuoren asennukseen. Järjestelmässä pyritään tehokkaaseen tilankäyttöön, lyhyeen läpäisyaikaan ja vähäiseen keskeneräisen tuotannon määrään.
Resumo:
Koneet voidaan usein jakaa osajärjestelmiin, joita ovat ohjaus- ja säätöjärjestelmät, voimaa tuottavat toimilaitteet ja voiman välittävät mekanismit. Eri osajärjestelmiä on simuloitu tietokoneavusteisesti jo usean vuosikymmenen ajan. Osajärjestelmien yhdistäminen on kuitenkin uudempi ilmiö. Usein esimerkiksi mekanismien mallinnuksessa toimilaitteen tuottama voimaon kuvattu vakiona, tai ajan funktiona muuttuvana voimana. Vastaavasti toimilaitteiden analysoinnissa mekanismin toimilaitteeseen välittämä kuormitus on kuvattu vakiovoimana, tai ajan funktiona työkiertoa kuvaavana kuormituksena. Kun osajärjestelmät on erotettu toisistaan, on niiden välistenvuorovaikutuksien tarkastelu erittäin epätarkkaa. Samoin osajärjestelmän vaikutuksen huomioiminen koko järjestelmän käyttäytymissä on hankalaa. Mekanismien dynamiikan mallinnukseen on kehitetty erityisesti tietokoneille soveltuvia numeerisia mallinnusmenetelmiä. Useimmat menetelmistä perustuvat Lagrangen menetelmään, joka mahdollistaa vapaasti valittaviin koordinaattimuuttujiin perustuvan mallinnuksen. Numeerista ratkaisun mahdollistamiseksi menetelmän avulla muodostettua differentiaali-algebraaliyhtälöryhmää joudutaan muokkaamaan esim. derivoimalla rajoiteyhtälöitä kahteen kertaan. Menetelmän alkuperäisessä numeerisissa ratkaisuissa kaikki mekanismia kuvaavat yleistetyt koordinaatit integroidaan jokaisella aika-askeleella. Tästä perusmenetelmästä johdetuissa menetelmissä riippumattomat yleistetyt koordinaatit joko integroidaan ja riippuvat koordinaatit ratkaistaan rajoiteyhtälöiden perusteella tai yhtälöryhmän kokoa pienennetään esim. käyttämällä nopeus- ja kiihtyvyysanalyyseissä eri kiertymäkoordinaatteja kuin asema-analyysissä. Useimmat integrointimenetelmät on alun perin tarkoitettu differentiaaliyhtälöiden (ODE) ratkaisuunjolloin yhtälöryhmään liitetyt niveliä kuvaavat algebraaliset rajoiteyhtälöt saattavat aiheuttaa ongelmia. Nivelrajoitteiden virheiden korjaus, stabilointi, on erittäin tärkeää mekanismien dynamiikan simuloinnin onnistumisen ja tulosten oikeellisuuden kannalta. Mallinnusmenetelmien johtamisessa käytetyn virtuaalisen työn periaatteen oletuksena nimittäin on, etteivät rajoitevoimat tee työtä, eli rajoitteiden vastaista siirtymää ei tapahdu. Varsinkaan monimutkaisten järjestelmien pidemmissä analyyseissä nivelrajoitteet eivät toteudu tarkasti. Tällöin järjestelmän energiatasapainoei toteudu ja järjestelmään muodostuu virtuaalista energiaa, joka rikkoo virtuaalisen työn periaatetta, Tästä syystä tulokset eivät enää pidäpaikkaansa. Tässä raportissa tarkastellaan erityyppisiä mallinnus- ja ratkaisumenetelmiä, ja vertaillaan niiden toimivuutta yksinkertaisten mekanismien numeerisessa ratkaisussa. Menetelmien toimivuutta tarkastellaan ratkaisun tehokkuuden, nivelrajoitteiden toteutumisen ja energiatasapainon säilymisen kannalta.
Resumo:
Over 70% of the total costs of an end product are consequences of decisions that are made during the design process. A search for optimal cross-sections will often have only a marginal effect on the amount of material used if the geometry of a structure is fixed and if the cross-sectional characteristics of its elements are property designed by conventional methods. In recent years, optimalgeometry has become a central area of research in the automated design of structures. It is generally accepted that no single optimisation algorithm is suitable for all engineering design problems. An appropriate algorithm, therefore, mustbe selected individually for each optimisation situation. Modelling is the mosttime consuming phase in the optimisation of steel and metal structures. In thisresearch, the goal was to develop a method and computer program, which reduces the modelling and optimisation time for structural design. The program needed anoptimisation algorithm that is suitable for various engineering design problems. Because Finite Element modelling is commonly used in the design of steel and metal structures, the interaction between a finite element tool and optimisation tool needed a practical solution. The developed method and computer programs were tested with standard optimisation tests and practical design optimisation cases. Three generations of computer programs are developed. The programs combine anoptimisation problem modelling tool and FE-modelling program using three alternate methdos. The modelling and optimisation was demonstrated in the design of a new boom construction and steel structures of flat and ridge roofs. This thesis demonstrates that the most time consuming modelling time is significantly reduced. Modelling errors are reduced and the results are more reliable. A new selection rule for the evolution algorithm, which eliminates the need for constraint weight factors is tested with optimisation cases of the steel structures that include hundreds of constraints. It is seen that the tested algorithm can be used nearly as a black box without parameter settings and penalty factors of the constraints.
Resumo:
The present study was done with two different servo-systems. In the first system, a servo-hydraulic system was identified and then controlled by a fuzzy gainscheduling controller. The second servo-system, an electro-magnetic linear motor in suppressing the mechanical vibration and position tracking of a reference model are studied by using a neural network and an adaptive backstepping controller respectively. Followings are some descriptions of research methods. Electro Hydraulic Servo Systems (EHSS) are commonly used in industry. These kinds of systems are nonlinearin nature and their dynamic equations have several unknown parameters.System identification is a prerequisite to analysis of a dynamic system. One of the most promising novel evolutionary algorithms is the Differential Evolution (DE) for solving global optimization problems. In the study, the DE algorithm is proposed for handling nonlinear constraint functionswith boundary limits of variables to find the best parameters of a servo-hydraulic system with flexible load. The DE guarantees fast speed convergence and accurate solutions regardless the initial conditions of parameters. The control of hydraulic servo-systems has been the focus ofintense research over the past decades. These kinds of systems are nonlinear in nature and generally difficult to control. Since changing system parameters using the same gains will cause overshoot or even loss of system stability. The highly non-linear behaviour of these devices makes them ideal subjects for applying different types of sophisticated controllers. The study is concerned with a second order model reference to positioning control of a flexible load servo-hydraulic system using fuzzy gainscheduling. In the present research, to compensate the lack of dampingin a hydraulic system, an acceleration feedback was used. To compare the results, a pcontroller with feed-forward acceleration and different gains in extension and retraction is used. The design procedure for the controller and experimental results are discussed. The results suggest that using the fuzzy gain-scheduling controller decrease the error of position reference tracking. The second part of research was done on a PermanentMagnet Linear Synchronous Motor (PMLSM). In this study, a recurrent neural network compensator for suppressing mechanical vibration in PMLSM with a flexible load is studied. The linear motor is controlled by a conventional PI velocity controller, and the vibration of the flexible mechanism is suppressed by using a hybrid recurrent neural network. The differential evolution strategy and Kalman filter method are used to avoid the local minimum problem, and estimate the states of system respectively. The proposed control method is firstly designed by using non-linear simulation model built in Matlab Simulink and then implemented in practical test rig. The proposed method works satisfactorily and suppresses the vibration successfully. In the last part of research, a nonlinear load control method is developed and implemented for a PMLSM with a flexible load. The purpose of the controller is to track a flexible load to the desired position reference as fast as possible and without awkward oscillation. The control method is based on an adaptive backstepping algorithm whose stability is ensured by the Lyapunov stability theorem. The states of the system needed in the controller are estimated by using the Kalman filter. The proposed controller is implemented and tested in a linear motor test drive and responses are presented.
Resumo:
The thesis studies the representations of different elements of contemporary work as present in Knowledge Management (KM). KM is approached as management discourse that is seen to affect and influence managerial practices in organizations. As representatives of KM discourse four journal articles are analyzed, using the methodology of Critical Discourse Analysis and the framework of Critical Management Studies, with a special emphasis on the question of structure and agency. The results of the analysis reveal that structural elements such as information technology and organizational structures are strongly present in the most influential KM representations, making their improvement also a desirable course of action for managers. In contrast agentic properties are not in a central role, they are subjugated to structural constraints of varying kind and degree. The thesis claims that one such constraint is KM discourse itself, influencing managerial and organizational choices and decision making. The thesis concludes that the way human beings are represented, studied and treated in management studies such as KM needs to be re-examined. Pro gradu-tutkielmassa analysoidaan työhön ja sen tekijään liittyviä representaatioita Tietojohtamisen kirjallisuudessa. Tietojohtamista tarkastellaan liikkeenjohdollisena diskurssina, jolla nähdään olevan vaikutus organisaatioiden päätöksentekoon ja toimintaan. Tutkielmassa analysoidaan neljä Tietojohtamisen tieteellistä artikkelia, käyttäen metodina kriittistä diskurssianalyysiä. Tutkielman viitekehyksenä on kriittinen liikkeenjohdon tutkimus. Lisäksi työssä pohditaan kysymystä rakenteen ja toimijan välisestä vuorovaikutuksesta. Tutkielman analyysi paljastaa, että tietojohtamisen vaikutusvaltaisimmat representaatiot painottavat rakenteellisia tekijöitä, kuten informaatioteknologiaa ja organisaatiorakenteita. Tämän seurauksena mm. panostukset em. tekijöihin nähdään organisaatioissa toivottavana toimintana. Vastaavasti representaatiot jotka painottavat yksilöitä ja toimintaa ovat em. tekijöille alisteisessa asemassa. Tapaa, jolla yksilöitä kuvataan ja käsitellään Tietojohtamisen diskurssissa, tulisikin laajentaa ja monipuolistaa.
Resumo:
By an exponential sum of the Fourier coefficients of a holomorphic cusp form we mean the sum which is formed by first taking the Fourier series of the said form,then cutting the beginning and the tail away and considering the remaining sum on the real axis. For simplicity’s sake, typically the coefficients are normalized. However, this isn’t so important as the normalization can be done and removed simply by using partial summation. We improve the approximate functional equation for the exponential sums of the Fourier coefficients of the holomorphic cusp forms by giving an explicit upper bound for the error term appearing in the equation. The approximate functional equation is originally due to Jutila [9] and a crucial tool for transforming sums into shorter sums. This transformation changes the point of the real axis on which the sum is to be considered. We also improve known upper bounds for the size estimates of the exponential sums. For very short sums we do not obtain any better estimates than the very easy estimate obtained by multiplying the upper bound estimate for a Fourier coefficient (they are bounded by the divisor function as Deligne [2] showed) by the number of coefficients. This estimate is extremely rough as no possible cancellation is taken into account. However, with small sums, it is unclear whether there happens any remarkable amounts of cancellation.
Resumo:
Päivittäistavarakaupassa energiankulutus on kohtuullisen suurta. Etenkin kylmälaitteet, ilmanvaihto ja valaistus kuluttavat paljon sähköä. Kaupan alalla on viime vuosina tehty paljon energiansäästötoimenpiteitä, joiden ansiosta myymälöiden energiatehokkuutta on saatu merkittävästi parannettua. Yksi tärkeimmistä toimenpiteistä on lämmön talteenotto, jolla lämmönkulutusta on saatu pienennettyä. Tässä opinnäytetyössä on selvitetty kahdenkymmenen ympäri Suomea sijaitsevan Prisma-hypermarketin energiatehokkuus. Sähkön- ja lämmön sekä veden kulutusta on arvioitu suhteessa rakennusvuoteen, pinta-alaan, rakennuksen tilavuuteen, lämmitystarvelukuun, kylmätehoon sekä myyntiin. Työssä on hyödynnetty internet-pohjaista Promise-luokitustyökalua.
Resumo:
The design methods and languages targeted to modern System-on-Chip designs are facing tremendous pressure of the ever-increasing complexity, power, and speed requirements. To estimate any of these three metrics, there is a trade-off between accuracy and abstraction level of detail in which a system under design is analyzed. The more detailed the description, the more accurate the simulation will be, but, on the other hand, the more time consuming it will be. Moreover, a designer wants to make decisions as early as possible in the design flow to avoid costly design backtracking. To answer the challenges posed upon System-on-chip designs, this thesis introduces a formal, power aware framework, its development methods, and methods to constraint and analyze power consumption of the system under design. This thesis discusses on power analysis of synchronous and asynchronous systems not forgetting the communication aspects of these systems. The presented framework is built upon the Timed Action System formalism, which offer an environment to analyze and constraint the functional and temporal behavior of the system at high abstraction level. Furthermore, due to the complexity of System-on-Chip designs, the possibility to abstract unnecessary implementation details at higher abstraction levels is an essential part of the introduced design framework. With the encapsulation and abstraction techniques incorporated with the procedure based communication allows a designer to use the presented power aware framework in modeling these large scale systems. The introduced techniques also enable one to subdivide the development of communication and computation into own tasks. This property is taken into account in the power analysis part as well. Furthermore, the presented framework is developed in a way that it can be used throughout the design project. In other words, a designer is able to model and analyze systems from an abstract specification down to an implementable specification.
Resumo:
This dissertation considers the segmental durations of speech from the viewpoint of speech technology, especially speech synthesis. The idea is that better models of segmental durations lead to higher naturalness and better intelligibility. These features are the key factors for better usability and generality of synthesized speech technology. Even though the studies are based on a Finnish corpus the approaches apply to all other languages as well. This is possibly due to the fact that most of the studies included in this dissertation are about universal effects taking place on utterance boundaries. Also the methods invented and used here are suitable for any other study of another language. This study is based on two corpora of news reading speech and sentences read aloud. The other corpus is read aloud by a 39-year-old male, whilst the other consists of several speakers in various situations. The use of two corpora is twofold: it involves a comparison of the corpora and a broader view on the matters of interest. The dissertation begins with an overview to the phonemes and the quantity system in the Finnish language. Especially, we are covering the intrinsic durations of phonemes and phoneme categories, as well as the difference of duration between short and long phonemes. The phoneme categories are presented to facilitate the problem of variability of speech segments. In this dissertation we cover the boundary-adjacent effects on segmental durations. In initial positions of utterances we find that there seems to be initial shortening in Finnish, but the result depends on the level of detail and on the individual phoneme. On the phoneme level we find that the shortening or lengthening only affects the very first ones at the beginning of an utterance. However, on average, the effect seems to shorten the whole first word on the word level. We establish the effect of final lengthening in Finnish. The effect in Finnish has been an open question for a long time, whilst Finnish has been the last missing piece for it to be a universal phenomenon. Final lengthening is studied from various angles and it is also shown that it is not a mere effect of prominence or an effect of speech corpus with high inter- and intra-speaker variation. The effect of final lengthening seems to extend from the final to the penultimate word. On a phoneme level it reaches a much wider area than the initial effect. We also present a normalization method suitable for corpus studies on segmental durations. The method uses an utterance-level normalization approach to capture the pattern of segmental durations within each utterance. This prevents the impact of various problematic variations within the corpora. The normalization is used in a study on final lengthening to show that the results on the effect are not caused by variation in the material. The dissertation shows an implementation and prowess of speech synthesis on a mobile platform. We find that the rule-based method of speech synthesis is a real-time software solution, but the signal generation process slows down the system beyond real time. Future aspects of speech synthesis on limited platforms are discussed. The dissertation considers ethical issues on the development of speech technology. The main focus is on the development of speech synthesis with high naturalness, but the problems and solutions are applicable to any other speech technology approaches.