51 resultados para Cluster size
Resumo:
Abstract
Resumo:
Tietokonejärjestelmän osien ja ohjelmistojen suorituskykymittauksista saadaan tietoa,jota voidaan käyttää suorituskyvyn parantamiseen ja laitteistohankintojen päätöksen tukena. Tässä työssä tutustutaan suorituskyvyn mittaamiseen ja mittausohjelmiin eli ns. benchmark-ohjelmistoihin. Työssä etsittiin ja arvioitiin eri tyyppisiä vapaasti saatavilla olevia benchmark-ohjelmia, jotka soveltuvat Linux-laskentaklusterin suorituskyvynanalysointiin. Benchmarkit ryhmiteltiin ja arvioitiin testaamalla niiden ominaisuuksia Linux-klusterissa. Työssä käsitellään myös mittausten tekemisen ja rinnakkaislaskennan haasteita. Benchmarkkeja löytyi moneen tarkoitukseen ja ne osoittautuivat laadultaan ja laajuudeltaan vaihteleviksi. Niitä on myös koottu ohjelmistopaketeiksi, jotta laitteiston suorituskyvystä saisi laajemman kuvan kuin mitä yhdellä ohjelmalla on mahdollista saada. Olennaista on ymmärtää nopeus, jolla dataa saadaan siirretyä prosessorille keskusmuistista, levyjärjestelmistä ja toisista laskentasolmuista. Tyypillinen benchmark-ohjelma sisältää paljon laskentaa tarvitsevan matemaattisen algoritmin, jota käytetään tieteellisissä ohjelmistoissa. Benchmarkista riippuen tulosten ymmärtäminen ja hyödyntäminen voi olla haasteellista.
Resumo:
Strategisten ryhmien teoria tarjoaa mahdollisuuden keskitason analyysiin yritysten ja toimialan välillä yritysten kilpailullisen aseman tarkasteluun. Strategiset ryhmät ovat samalla toimialalla toimivia yrityksiä, joilla on samanlaiset strategiset ominaisuudet, jotka kilpailevat samanlaisilla perusteilla tai jotka toteuttavat samanlaista strategiaa. Tässä tutkimuksessa strategisten ryhmien teoriaa on käytetty eurooppalaisten energiayritysten ryhmittelyyn. Tutkimuksessa oli mukana 104 energia-alan yritystä, jotka jaettiin viiteen strategiseen pääryhmään yritysten maantieteellisen toiminta-alueen ja koon mukaan. Jokainen ryhmä edustaa erilaista strategiaa. Muita strategisia ominaisuuksia, joita ovat diversifikaatioaste, tuotantoteknologia ja omistusmuoto, käytettiin muodostamaan alaryhmiä edellisistä pääryhmistä. Muodostettuja strategisia ryhmiä käytettiin seuraavaksi suoristuskykyerojen tutkimiseen ryhmien välillä. Suorituskykyä kuvaaviksi muuttujiksi valittiin liikevoitto-%, koko pääoman tuottoaste, vakavaraisuus-% ja current ratio. Tulokset osoittavat, että energiayritykset voidaan jakaa ryhmiin valittujen strategisten ominaisuuksien perusteella. Nämä yritysten strategiset valinnat eivät vaikuta merkittävästi yritysten taloudelliseen suorituskykyyn valittujen suorituskykymuuttujien osalta. Monikansalliset jättiläisyritykset ovat suorituskyvyltään heikoimpia ja eurooppalaiset suuryritykset parhaita ryhmiä, mutta erot eivät ole tilastollisesti merkittäviä. Ainut merkittävä ero suorituskykymuuttujissa oli vakavaraisuudessa monikansallisten ja eurooppalaisten suurten yritysten välillä. Muut suorituskykymuuttujat eivät eronneet ryhmien välillä tilastollisesti merkittävästi. Tilastollisesti merkittäviä eroja ei löydetty myöskään alaryhmien välillä.
Resumo:
Gas-liquid mass transfer is an important issue in the design and operation of many chemical unit operations. Despite its importance, the evaluation of gas-liquid mass transfer is not straightforward due to the complex nature of the phenomena involved. In this thesis gas-liquid mass transfer was evaluated in three different gas-liquid reactors in a traditional way by measuring the volumetric mass transfer coefficient (kLa). The studied reactors were a bubble column with a T-junction two-phase nozzle for gas dispersion, an industrial scale bubble column reactor for the oxidation of tetrahydroanthrahydroquinone and a concurrent downflow structured bed.The main drawback of this approach is that the obtained correlations give only the average volumetric mass transfer coefficient, which is dependent on average conditions. Moreover, the obtained correlations are valid only for the studied geometry and for the chemical system used in the measurements. In principle, a more fundamental approach is to estimate the interfacial area available for mass transfer from bubble size distributions obtained by solution of population balance equations. This approach has been used in this thesis by developing a population balance model for a bubble column together with phenomenological models for bubble breakage and coalescence. The parameters of the bubble breakage rate and coalescence rate models were estimated by comparing the measured and calculated bubble sizes. The coalescence models always have at least one experimental parameter. This is because the bubble coalescence depends on liquid composition in a way which is difficult to evaluate using known physical properties. The coalescence properties of some model solutions were evaluated by measuring the time that a bubble rests at the free liquid-gas interface before coalescing (the so-calledpersistence time or rest time). The measured persistence times range from 10 msup to 15 s depending on the solution. The coalescence was never found to be instantaneous. The bubble oscillates up and down at the interface at least a coupleof times before coalescence takes place. The measured persistence times were compared to coalescence times obtained by parameter fitting using measured bubble size distributions in a bubble column and a bubble column population balance model. For short persistence times, the persistence and coalescence times are in good agreement. For longer persistence times, however, the persistence times are at least an order of magnitude longer than the corresponding coalescence times from parameter fitting. This discrepancy may be attributed to the uncertainties concerning the estimation of energy dissipation rates, collision rates and mechanisms and contact times of the bubbles.
Resumo:
Työssä tutkitaan menetelmiä, käytäntöjä ja oliosuunnittelumalleja jotka johtavat ohjelmistojen koon pienentymiseen. Työssä tutkitaan konkreettisia keinoja ohjelmistojen koon optimointiin Symbian-alustalla. Työ keskityy C++ ohjelmistoihin jotka on suunniteltu toimimaan matkapuhelimissa ja muissa langattomissa laitteissa. Työssä esitellään, analysoidaan ja optimoidaan todellinen, loppukäyttäjille suunnattu, langaton sovellus. Käytetyt optimointimenetelmät sekä saadut tulokset esitellään ja analysoidaan. Esimerkkisovelluksen toteuttamisesta kertyvien kokemusten perusteella esitetään suosituksia langattomaan sovelluskehitykseen. Hyvän teknisen arkkitehtuurisuunnitelman todettiin olevan merkittävässä roolissa. C++ -kielen luokkaperinnän huomattiin yllättäen olevan suurin ohjelmatiedostojen kokoon vaikuttava tekijä Symbian-käyttöjärjestelmässä. Pienten ohjelmien tuottamisessa vaaditaan taitoa ja kurinalaisuutta. Ohjelmistokehittäjien asenteet ovat yleensä suurin este sille. Monet ihmiset eivät vain välitä kirjoittaminen ohjelmiensa koosta.
Resumo:
Tämän diplomityön tarkoituksena oli tutkia pintaliimatärkkelysten reologista käyttäytymistä korkeissa kuiva-ainepitoisuuksissa. Tarve työn suorittamiselle syntyi kun tutkittiin pintaliimausta filminsiirtopuristimella tavallista korkeammissa kuiva-ainepitoisuuksissa, sileän sauvan ollessa applikointilaitteena. Koska applikointi sileällä sauvalla tapahtuu hydrodynaamisten periaatteiden mukaisesti, sen käyttö edellyttää pintaliimojen reologisten ominaisuuksien tarkkaa tuntemusta ja hallintaa.Kiinnostuksen kohteena olevat ominaisuudet olivat tärkkelysten kuiva-ainepitoisuuden (8 – 30 %) vaikutus viskositeettiin eri lämpötiloissa (20, 30, 40 ja 50 ºC), leikkausnopeus alueella 1 s-1 - 700 000 s-1. Myös tärkkelysten myötörajat määritettiin tutkimuksessa. Viskositeetti eri leikkausnopeusalueilla mitattiin seuraavilla laitteilla: Bohlin VOR (matalat leikkausnopeudet ja myötöraja) ja Hercules HiShear (keskitason leikkausnopeudet) reometrit sekä Eklund kapillaariviskometri (korkeat leikkausno-peudet). Analysoidut tärkkelykset olivat kaksi anionista matalaviskoottista peruna (tärkkelys A) ja ohra (tärkkelys C) tärkkelystä, sekä yksi kationinen korkeaviskoottinen peruna tärkkelys (tärkkelys B). Tutkittujen tärkkelysten Brookfield viskositeetit (100 rpm) olivat (10 % liuos, 60 °C:ssa) tärkkelys A ja C: 25 ± 5 mPas ja tärkkelys B: 100 ± 20 mPas.Tärkkelysliuosten kuiva-ainepitoisuuden noustessa muuttui virtauskäyttäytyminen Newtoniaalisesta leikkausohenevaksi. Leikkausoheneva käyttäytyminen oli voimakkainta tärkkelys B:n kohdalla. Viskositeetti – lämpötila riippuvuus korkeissa leikkausnopeuksissa (esim. 500 000 s-1) oli vähäisempää, mitä oli oletettavissa Brookfield viskositeettiarvojen perusteella. Kaikki tarkkelykset osoittautuivat tiksotrooppisiksi, myös tiksotrooppisuus lisääntyi kuiva-ainepitoisuuden kasvaessa. Tärkkelysten myötörajat osoittautuivat odottamattoman alhaisiksi, kuitenkin varsinkin tärkkelys B:n myötörajat olivat selvästi riippuvaisia lämpötilasta ja kuiva-ainepitoisuudesta. Tutkittujen tärkkelysten virtauskäyttäytyminen oli kirjallisuudessa esitetyn kaltaista. Tärkkelysmolekyylien ketjun pituus oli tärkein tärkkelyksen reologisia ominaisuuksia määrittävä tekijä; mitä matalampi on tärkkelyksen molekyylimassa, sitä matalammat ovat viskositeetti ja myötöraja. Pintaliimauksessa tärkkelysmolekyylien ketjunpituudella on suuri vaikutus ajettavuuteen ja lopputuotteen ominaisuuksiin. Haasteellista pintaliimatärkkelyksen valinnassa on sellaisen yhdistelmän löytäminen, jossa sopivan reologisen käyttäytymisen omaava tärkkelys ja pintaliimatulle paperille tai kartongille asetetut vaatimukset kohtaavat.
Resumo:
Raaka-aineen hiukkaskoko on lääkekehityksessä keskeinen materiaaliparametri. Lääkeaineen partikkelikoko vaikuttaa moneen lääketuotteen tärkeään ominaisuuteen, esimerkiksi lääkkeen biologiseen hyväksikäytettävyyteen. Tässä diplomityössä keskityttiin jauhemaisten lääkeaineiden hiukkaskoon määrittämiseen laserdiffraktiomenetelmällä. Menetelmä perustuu siihen, että partikkeleista sironneen valon intensiteetin sirontakulmajakauma on riippuvainen partikkelien kokojakaumasta. Työn kirjallisuusosassa esiteltiin laserdiffraktiomenetelmän teoriaa. PIDS (Polarization Intensity Differential Scattering) tekniikka, jota voidaan käyttää laserdiffraktion yhteydessä, on myös kuvattu kirjallisuusosassa. Muihin menetelmiin perustuvista analyysimenetelmistä tutustuttiin mikroskopiaan sekä aerodynaamisen lentoajan määrittämiseen perustuvaan menetelmään. Kirjallisuusosassa esiteltiin myös partikkelikoon yleisimpiä esitystapoja. Työn kokeellisen osan tarkoituksena oli kehittää ja validoida laserdiffraktioon perustuva partikkelikoon määritysmenetelmä tietylle lääkeaineelle. Menetelmäkehitys tehtiin käyttäen Beckman Coulter LS 13 320 laserdiffraktoria. Laite mahdollistaa PIDS-tekniikan käytön laserdiffraktiotekniikan ohella. Menetelmäkehitys aloitettiin arvioimalla, että kyseinen lääkeaine soveltuu parhaiten määritettäväksi nesteeseen dispergoituna. Liukoisuuden perusteella väliaineeksi valittiin tällä lääkeaineella kyllästetty vesiliuos. Dispergointiaineen sekä ultraäänihauteen käyttö havaittiin tarpeelliseksi dispergoidessa kyseistä lääkeainetta kylläiseen vesiliuokseen. Lopuksi sekoitusnopeus näytteensyöttöyksikössä säädettiin sopivaksi. Validointivaiheessa kehitetyn menetelmän todettiin soveltuvan hyvin kyseiselle lääkeaineelle ja tulosten todettiin olevan oikeellisia sekä toistettavia. Menetelmä ei myöskään ollut herkkä pienille häiriöille.
Resumo:
Markkinasegmentointi nousi esiin ensi kerran jo 50-luvulla ja se on ollut siitä lähtien yksi markkinoinnin peruskäsitteistä. Suuri osa segmentointia käsittelevästä tutkimuksesta on kuitenkin keskittynyt kuluttajamarkkinoiden segmentointiin yritys- ja teollisuusmarkkinoiden segmentoinnin jäädessä vähemmälle huomiolle. Tämän tutkimuksen tavoitteena on luoda segmentointimalli teollismarkkinoille tietotekniikan tuotteiden ja palveluiden tarjoajan näkökulmasta. Tarkoituksena on selvittää mahdollistavatko case-yrityksen nykyiset asiakastietokannat tehokkaan segmentoinnin, selvittää sopivat segmentointikriteerit sekä arvioida tulisiko tietokantoja kehittää ja kuinka niitä tulisi kehittää tehokkaamman segmentoinnin mahdollistamiseksi. Tarkoitus on luoda yksi malli eri liiketoimintayksiköille yhteisesti. Näin ollen eri yksiköiden tavoitteet tulee ottaa huomioon eturistiriitojen välttämiseksi. Tutkimusmetodologia on tapaustutkimus. Lähteinä tutkimuksessa käytettiin sekundäärisiä lähteitä sekä primäärejä lähteitä kuten case-yrityksen omia tietokantoja sekä haastatteluita. Tutkimuksen lähtökohtana oli tutkimusongelma: Voiko tietokantoihin perustuvaa segmentointia käyttää kannattavaan asiakassuhdejohtamiseen PK-yritys sektorilla? Tavoitteena on luoda segmentointimalli, joka hyödyntää tietokannoissa olevia tietoja tinkimättä kuitenkaan tehokkaan ja kannattavan segmentoinnin ehdoista. Teoriaosa tutkii segmentointia yleensä painottuen kuitenkin teolliseen markkinasegmentointiin. Tarkoituksena on luoda selkeä kuva erilaisista lähestymistavoista aiheeseen ja syventää näkemystä tärkeimpien teorioiden osalta. Tietokantojen analysointi osoitti selviä puutteita asiakastiedoissa. Peruskontaktitiedot löytyvät mutta segmentointia varten tietoa on erittäin rajoitetusti. Tietojen saantia jälleenmyyjiltä ja tukkureilta tulisi parantaa loppuasiakastietojen saannin takia. Segmentointi nykyisten tietojen varassa perustuu lähinnä sekundäärisiin tietoihin kuten toimialaan ja yrityskokoon. Näitäkään tietoja ei ole saatavilla kaikkien tietokannassa olevien yritysten kohdalta.
Resumo:
The aim of the research was to evaluate the suitability of small-size pine as a raw material for glueboard. A further aim was to investigate claims that dead knots and the twisting of the heartwood cause, quality problems in the but of the small-size pine. The theoretical framework of the study details the whole manufacturing process from raw material to the finished article; the description of the qualities of raw material, the sawing and drying processes as well as the making of the glueboard. The solve the research problem the following figures were calculated: amount of small-size pines, the yield and quality of sawn timber which can be used for making glueboard as well as the variables which affect the various stages of the process. The results show that about half of the timber from the thinning process was suitable material for sawing. The most common problem with the unsuitable timber was form defects of the stem. The average usage ratio of sawing was 2,31 k-m3/m3. 87,97 % of the sawn timber could be used for the production of glueboard. The unsuitability of sawn timber for making glueboard was mainly caused by breakage and the twisting of the heartwood. Dead knots were small and did not effect the quality of the but of the small-size pine. It can therefore be concluded that small-size pine is suitable raw material for glueboard.
Resumo:
Simulation has traditionally been used for analyzing the behavior of complex real world problems. Even though only some features of the problems are considered, simulation time tends to become quite high even for common simulation problems. Parallel and distributed simulation is a viable technique for accelerating the simulations. The success of parallel simulation depends heavily on the combination of the simulation application, algorithm and message population in the simulation is sufficient, no additional delay is caused by this environment. In this thesis a conservative, parallel simulation algorithm is applied to the simulation of a cellular network application in a distributed workstation environment. This thesis presents a distributed simulation environment, Diworse, which is based on the use of networked workstations. The distributed environment is considered especially hard for conservative simulation algorithms due to the high cost of communication. In this thesis, however, the distributed environment is shown to be a viable alternative if the amount of communication is kept reasonable. Novel ideas of multiple message simulation and channel reduction enable efficient use of this environment for the simulation of a cellular network application. The distribution of the simulation is based on a modification of the well known Chandy-Misra deadlock avoidance algorithm with null messages. The basic Chandy Misra algorithm is modified by using the null message cancellation and multiple message simulation techniques. The modifications reduce the amount of null messages and the time required for their execution, thus reducing the simulation time required. The null message cancellation technique reduces the processing time of null messages as the arriving null message cancels other non processed null messages. The multiple message simulation forms groups of messages as it simulates several messages before it releases the new created messages. If the message population in the simulation is suffiecient, no additional delay is caused by this operation A new technique for considering the simulation application is also presented. The performance is improved by establishing a neighborhood for the simulation elements. The neighborhood concept is based on a channel reduction technique, where the properties of the application exclusively determine which connections are necessary when a certain accuracy for simulation results is required. Distributed simulation is also analyzed in order to find out the effect of the different elements in the implemented simulation environment. This analysis is performed by using critical path analysis. Critical path analysis allows determination of a lower bound for the simulation time. In this thesis critical times are computed for sequential and parallel traces. The analysis based on sequential traces reveals the parallel properties of the application whereas the analysis based on parallel traces reveals the properties of the environment and the distribution.
Resumo:
It is a well known phenomenon that the constant amplitude fatigue limit of a large component is lower than the fatigue limit of a small specimen made of the same material. In notched components the opposite occurs: the fatigue limit defined as the maximum stress at the notch is higher than that achieved with smooth specimens. These two effects have been taken into account in most design handbooks with the help of experimental formulas or design curves. The basic idea of this study is that the size effect can mainly be explained by the statistical size effect. A component subjected to an alternating load can be assumed to form a sample of initiated cracks at the end of the crack initiation phase. The size of the sample depends on the size of the specimen in question. The main objective of this study is to develop a statistical model for the estimation of this kind of size effect. It was shown that the size of a sample of initiated cracks shall be based on the stressed surface area of the specimen. In case of varying stress distribution, an effective stress area must be calculated. It is based on the decreasing probability of equally sized initiated cracks at lower stress level. If the distribution function of the parent population of cracks is known, the distribution of the maximum crack size in a sample can be defined. This makes it possible to calculate an estimate of the largest expected crack in any sample size. The estimate of the fatigue limit can now be calculated with the help of the linear elastic fracture mechanics. In notched components another source of size effect has to be taken into account. If we think about two specimens which have similar shape, but the size is different, it can be seen that the stress gradient in the smaller specimen is steeper. If there is an initiated crack in both of them, the stress intensity factor at the crack in the larger specimen is higher. The second goal of this thesis is to create a calculation method for this factor which is called the geometric size effect. The proposed method for the calculation of the geometric size effect is also based on the use of the linear elastic fracture mechanics. It is possible to calculate an accurate value of the stress intensity factor in a non linear stress field using weight functions. The calculated stress intensity factor values at the initiated crack can be compared to the corresponding stress intensity factor due to constant stress. The notch size effect is calculated as the ratio of these stress intensity factors. The presented methods were tested against experimental results taken from three German doctoral works. Two candidates for the parent population of initiated cracks were found: the Weibull distribution and the log normal distribution. Both of them can be used successfully for the prediction of the statistical size effect for smooth specimens. In case of notched components the geometric size effect due to the stress gradient shall be combined with the statistical size effect. The proposed method gives good results as long as the notch in question is blunt enough. For very sharp notches, stress concentration factor about 5 or higher, the method does not give sufficient results. It was shown that the plastic portion of the strain becomes quite high at the root of this kind of notches. The use of the linear elastic fracture mechanics becomes therefore questionable.
Resumo:
To predict the capacity of the structure or the point which is followed by instability, calculation of the critical crack size is important. Structures usually contain several cracks but not necessarily all of these cracks lead to failure or reach the critical size. So, defining the harmful cracks or the crack size which is the most leading one to failure provides criteria for structure’s capacity at elevated temperature. The scope of this thesis was to calculate fracture parameters like stress intensity factor, the J integral and plastic and ultimate capacity of the structure to estimate critical crack size for this specific structure. Several three dimensional (3D) simulations using finite element method by Ansys program and boundary element method by Frank 3D program were carried out to calculate fracture parameters and results with the aid of laboratory tests (loaddisplacement curve, the J resistance curve and yield or ultimate stress) leaded to extract critical size of the crack. Two types of the fracture which is usually affected by temperature, Elastic and Elasti-Plastic fractures were simulated by performing several linear elastic and nonlinear elastic analyses. Geometry details of the weldment; flank angle and toe radius were also studied independently to estimate the location of crack initiation and simulate stress field in early stages of crack extension in structure. In this work also overview of the structure’s capacity in room temperature (20 ºC) was studied. Comparison of the results in different temperature (20 ºC and -40 ºC) provides a threshold of the structure’s behavior within the defined range.