38 resultados para Mesh size


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fatigue life assessment of weldedstructures is commonly based on the nominal stress method, but more flexible and accurate methods have been introduced. In general, the assessment accuracy is improved as more localized information about the weld is incorporated. The structural hot spot stress method includes the influence of macro geometric effects and structural discontinuities on the design stress but excludes the local features of the weld. In this thesis, the limitations of the structural hot spot stress method are discussed and a modified structural stress method with improved accuracy is developed and verified for selected welded details. The fatigue life of structures in the as-welded state consists mainly of crack growth from pre-existing cracks or defects. Crack growth rate depends on crack geometry and the stress state on the crack face plane. This means that the stress level and shape of the stress distribution in the assumed crack path governs thetotal fatigue life. In many structural details the stress distribution is similar and adequate fatigue life estimates can be obtained just by adjusting the stress level based on a single stress value, i.e., the structural hot spot stress. There are, however, cases for which the structural stress approach is less appropriate because the stress distribution differs significantly from the more common cases. Plate edge attachments and plates on elastic foundations are some examples of structures with this type of stress distribution. The importance of fillet weld size and weld load variation on the stress distribution is another central topic in this thesis. Structural hot spot stress determination is generally based on a procedure that involves extrapolation of plate surface stresses. Other possibilities for determining the structural hot spot stress is to extrapolate stresses through the thickness at the weld toe or to use Dong's method which includes through-thickness extrapolation at some distance from the weld toe. Both of these latter methods are less sensitive to the FE mesh used. Structural stress based on surface extrapolation is sensitive to the extrapolation points selected and to the FE mesh used near these points. Rules for proper meshing, however, are well defined and not difficult to apply. To improve the accuracy of the traditional structural hot spot stress, a multi-linear stress distribution is introduced. The magnitude of the weld toe stress after linearization is dependent on the weld size, weld load and plate thickness. Simple equations have been derived by comparing assessment results based on the local linear stress distribution and LEFM based calculations. The proposed method is called the modified structural stress method (MSHS) since the structural hot spot stress (SHS) value is corrected using information on weld size andweld load. The correction procedure is verified using fatigue test results found in the literature. Also, a test case was conducted comparing the proposed method with other local fatigue assessment methods.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gas-liquid mass transfer is an important issue in the design and operation of many chemical unit operations. Despite its importance, the evaluation of gas-liquid mass transfer is not straightforward due to the complex nature of the phenomena involved. In this thesis gas-liquid mass transfer was evaluated in three different gas-liquid reactors in a traditional way by measuring the volumetric mass transfer coefficient (kLa). The studied reactors were a bubble column with a T-junction two-phase nozzle for gas dispersion, an industrial scale bubble column reactor for the oxidation of tetrahydroanthrahydroquinone and a concurrent downflow structured bed.The main drawback of this approach is that the obtained correlations give only the average volumetric mass transfer coefficient, which is dependent on average conditions. Moreover, the obtained correlations are valid only for the studied geometry and for the chemical system used in the measurements. In principle, a more fundamental approach is to estimate the interfacial area available for mass transfer from bubble size distributions obtained by solution of population balance equations. This approach has been used in this thesis by developing a population balance model for a bubble column together with phenomenological models for bubble breakage and coalescence. The parameters of the bubble breakage rate and coalescence rate models were estimated by comparing the measured and calculated bubble sizes. The coalescence models always have at least one experimental parameter. This is because the bubble coalescence depends on liquid composition in a way which is difficult to evaluate using known physical properties. The coalescence properties of some model solutions were evaluated by measuring the time that a bubble rests at the free liquid-gas interface before coalescing (the so-calledpersistence time or rest time). The measured persistence times range from 10 msup to 15 s depending on the solution. The coalescence was never found to be instantaneous. The bubble oscillates up and down at the interface at least a coupleof times before coalescence takes place. The measured persistence times were compared to coalescence times obtained by parameter fitting using measured bubble size distributions in a bubble column and a bubble column population balance model. For short persistence times, the persistence and coalescence times are in good agreement. For longer persistence times, however, the persistence times are at least an order of magnitude longer than the corresponding coalescence times from parameter fitting. This discrepancy may be attributed to the uncertainties concerning the estimation of energy dissipation rates, collision rates and mechanisms and contact times of the bubbles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Työssä tutkitaan menetelmiä, käytäntöjä ja oliosuunnittelumalleja jotka johtavat ohjelmistojen koon pienentymiseen. Työssä tutkitaan konkreettisia keinoja ohjelmistojen koon optimointiin Symbian-alustalla. Työ keskityy C++ ohjelmistoihin jotka on suunniteltu toimimaan matkapuhelimissa ja muissa langattomissa laitteissa. Työssä esitellään, analysoidaan ja optimoidaan todellinen, loppukäyttäjille suunnattu, langaton sovellus. Käytetyt optimointimenetelmät sekä saadut tulokset esitellään ja analysoidaan. Esimerkkisovelluksen toteuttamisesta kertyvien kokemusten perusteella esitetään suosituksia langattomaan sovelluskehitykseen. Hyvän teknisen arkkitehtuurisuunnitelman todettiin olevan merkittävässä roolissa. C++ -kielen luokkaperinnän huomattiin yllättäen olevan suurin ohjelmatiedostojen kokoon vaikuttava tekijä Symbian-käyttöjärjestelmässä. Pienten ohjelmien tuottamisessa vaaditaan taitoa ja kurinalaisuutta. Ohjelmistokehittäjien asenteet ovat yleensä suurin este sille. Monet ihmiset eivät vain välitä kirjoittaminen ohjelmiensa koosta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tämän diplomityön tarkoituksena oli tutkia pintaliimatärkkelysten reologista käyttäytymistä korkeissa kuiva-ainepitoisuuksissa. Tarve työn suorittamiselle syntyi kun tutkittiin pintaliimausta filminsiirtopuristimella tavallista korkeammissa kuiva-ainepitoisuuksissa, sileän sauvan ollessa applikointilaitteena. Koska applikointi sileällä sauvalla tapahtuu hydrodynaamisten periaatteiden mukaisesti, sen käyttö edellyttää pintaliimojen reologisten ominaisuuksien tarkkaa tuntemusta ja hallintaa.Kiinnostuksen kohteena olevat ominaisuudet olivat tärkkelysten kuiva-ainepitoisuuden (8 – 30 %) vaikutus viskositeettiin eri lämpötiloissa (20, 30, 40 ja 50 ºC), leikkausnopeus alueella 1 s-1 - 700 000 s-1. Myös tärkkelysten myötörajat määritettiin tutkimuksessa. Viskositeetti eri leikkausnopeusalueilla mitattiin seuraavilla laitteilla: Bohlin VOR (matalat leikkausnopeudet ja myötöraja) ja Hercules HiShear (keskitason leikkausnopeudet) reometrit sekä Eklund kapillaariviskometri (korkeat leikkausno-peudet). Analysoidut tärkkelykset olivat kaksi anionista matalaviskoottista peruna (tärkkelys A) ja ohra (tärkkelys C) tärkkelystä, sekä yksi kationinen korkeaviskoottinen peruna tärkkelys (tärkkelys B). Tutkittujen tärkkelysten Brookfield viskositeetit (100 rpm) olivat (10 % liuos, 60 °C:ssa) tärkkelys A ja C: 25 ± 5 mPas ja tärkkelys B: 100 ± 20 mPas.Tärkkelysliuosten kuiva-ainepitoisuuden noustessa muuttui virtauskäyttäytyminen Newtoniaalisesta leikkausohenevaksi. Leikkausoheneva käyttäytyminen oli voimakkainta tärkkelys B:n kohdalla. Viskositeetti – lämpötila riippuvuus korkeissa leikkausnopeuksissa (esim. 500 000 s-1) oli vähäisempää, mitä oli oletettavissa Brookfield viskositeettiarvojen perusteella. Kaikki tarkkelykset osoittautuivat tiksotrooppisiksi, myös tiksotrooppisuus lisääntyi kuiva-ainepitoisuuden kasvaessa. Tärkkelysten myötörajat osoittautuivat odottamattoman alhaisiksi, kuitenkin varsinkin tärkkelys B:n myötörajat olivat selvästi riippuvaisia lämpötilasta ja kuiva-ainepitoisuudesta. Tutkittujen tärkkelysten virtauskäyttäytyminen oli kirjallisuudessa esitetyn kaltaista. Tärkkelysmolekyylien ketjun pituus oli tärkein tärkkelyksen reologisia ominaisuuksia määrittävä tekijä; mitä matalampi on tärkkelyksen molekyylimassa, sitä matalammat ovat viskositeetti ja myötöraja. Pintaliimauksessa tärkkelysmolekyylien ketjunpituudella on suuri vaikutus ajettavuuteen ja lopputuotteen ominaisuuksiin. Haasteellista pintaliimatärkkelyksen valinnassa on sellaisen yhdistelmän löytäminen, jossa sopivan reologisen käyttäytymisen omaava tärkkelys ja pintaliimatulle paperille tai kartongille asetetut vaatimukset kohtaavat.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Päällystettyä paperia valmistettaessa syntyy päällystettyä hylkyä, joka kierrätetään takaisin prosessiin raaka-aineen tehokkaaksi hyödyntämiseksi. Hylyn mukana takaisin paperikoneen lyhyeen kiertoon päätyy myös pigmenttiaines levymäisinä partikkeleina. Nämä partikkelit rejektoituvat lyhyen kierron pyörrepuhdistimilla. Raaka-aineen hävikin pienentämiseksi käytetään lyhyessä kierrossa täyteaineen talteenottojärjestelmää, jonka tehtävänä on hienontaa päällystysainepartikkelit tasakokoisiksi, jotta ne voitaisiin palauttaa prosessiin. Talteenottolaitteistojen toiminnan tarkkailun kannalta on keskeistä tietää pyörrepuhdistuslaitoksen eri jakeiden partikkelikokojakaumat juuri pigmenttipartikkelien osalta. Tätä määritystä häiritsee näytteissä oleva kuitu. Tässä työssä pyrittiin löytämään partikkelikokoanalyysimenetelmä, jolla pigmenttien partikkelikokojakauma saataisiin selvitettyä kuidusta huolimatta. Aiemmin käytetty näytteen tuhkaus esikäsittelynä ennen partikkelikokoanalyysiä laserdiffraktiometrillä on osoittautunut toimimattomaksi. Kokeiden pääpaino keskittyi näytteen esikäsittelyyn fraktioinnilla ennen laserdiffraktioanalyysiä ja virtaussytometriamittauksiin. Fraktiointiin käytettiin DDJ-laitetta (dynamic drainage jar), joka oli varustettu metalliviiralla. Kumpikaan menetelmistä ei ollut täysin toimiva partikkelikokoanalyysiin, fraktioinnilla saadaan vähennettyä kuidun partikkelikokojakaumaan aiheuttamaa virhettä, mutta sen toimivuus riippuu paljolti näytteestä. Virtaussytometrialla väriainetta SYTO13 käyttämällä saadaan pigmenttipartikkelit tunnistettua ja näin rajattua kuidut pois mittauksista, mutta pigmenttiä ei saada erotettua puuperäisestä hienoaineesta, mikä vääristää mittaustulosta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Raaka-aineen hiukkaskoko on lääkekehityksessä keskeinen materiaaliparametri. Lääkeaineen partikkelikoko vaikuttaa moneen lääketuotteen tärkeään ominaisuuteen, esimerkiksi lääkkeen biologiseen hyväksikäytettävyyteen. Tässä diplomityössä keskityttiin jauhemaisten lääkeaineiden hiukkaskoon määrittämiseen laserdiffraktiomenetelmällä. Menetelmä perustuu siihen, että partikkeleista sironneen valon intensiteetin sirontakulmajakauma on riippuvainen partikkelien kokojakaumasta. Työn kirjallisuusosassa esiteltiin laserdiffraktiomenetelmän teoriaa. PIDS (Polarization Intensity Differential Scattering) tekniikka, jota voidaan käyttää laserdiffraktion yhteydessä, on myös kuvattu kirjallisuusosassa. Muihin menetelmiin perustuvista analyysimenetelmistä tutustuttiin mikroskopiaan sekä aerodynaamisen lentoajan määrittämiseen perustuvaan menetelmään. Kirjallisuusosassa esiteltiin myös partikkelikoon yleisimpiä esitystapoja. Työn kokeellisen osan tarkoituksena oli kehittää ja validoida laserdiffraktioon perustuva partikkelikoon määritysmenetelmä tietylle lääkeaineelle. Menetelmäkehitys tehtiin käyttäen Beckman Coulter LS 13 320 laserdiffraktoria. Laite mahdollistaa PIDS-tekniikan käytön laserdiffraktiotekniikan ohella. Menetelmäkehitys aloitettiin arvioimalla, että kyseinen lääkeaine soveltuu parhaiten määritettäväksi nesteeseen dispergoituna. Liukoisuuden perusteella väliaineeksi valittiin tällä lääkeaineella kyllästetty vesiliuos. Dispergointiaineen sekä ultraäänihauteen käyttö havaittiin tarpeelliseksi dispergoidessa kyseistä lääkeainetta kylläiseen vesiliuokseen. Lopuksi sekoitusnopeus näytteensyöttöyksikössä säädettiin sopivaksi. Validointivaiheessa kehitetyn menetelmän todettiin soveltuvan hyvin kyseiselle lääkeaineelle ja tulosten todettiin olevan oikeellisia sekä toistettavia. Menetelmä ei myöskään ollut herkkä pienille häiriöille.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Markkinasegmentointi nousi esiin ensi kerran jo 50-luvulla ja se on ollut siitä lähtien yksi markkinoinnin peruskäsitteistä. Suuri osa segmentointia käsittelevästä tutkimuksesta on kuitenkin keskittynyt kuluttajamarkkinoiden segmentointiin yritys- ja teollisuusmarkkinoiden segmentoinnin jäädessä vähemmälle huomiolle. Tämän tutkimuksen tavoitteena on luoda segmentointimalli teollismarkkinoille tietotekniikan tuotteiden ja palveluiden tarjoajan näkökulmasta. Tarkoituksena on selvittää mahdollistavatko case-yrityksen nykyiset asiakastietokannat tehokkaan segmentoinnin, selvittää sopivat segmentointikriteerit sekä arvioida tulisiko tietokantoja kehittää ja kuinka niitä tulisi kehittää tehokkaamman segmentoinnin mahdollistamiseksi. Tarkoitus on luoda yksi malli eri liiketoimintayksiköille yhteisesti. Näin ollen eri yksiköiden tavoitteet tulee ottaa huomioon eturistiriitojen välttämiseksi. Tutkimusmetodologia on tapaustutkimus. Lähteinä tutkimuksessa käytettiin sekundäärisiä lähteitä sekä primäärejä lähteitä kuten case-yrityksen omia tietokantoja sekä haastatteluita. Tutkimuksen lähtökohtana oli tutkimusongelma: Voiko tietokantoihin perustuvaa segmentointia käyttää kannattavaan asiakassuhdejohtamiseen PK-yritys sektorilla? Tavoitteena on luoda segmentointimalli, joka hyödyntää tietokannoissa olevia tietoja tinkimättä kuitenkaan tehokkaan ja kannattavan segmentoinnin ehdoista. Teoriaosa tutkii segmentointia yleensä painottuen kuitenkin teolliseen markkinasegmentointiin. Tarkoituksena on luoda selkeä kuva erilaisista lähestymistavoista aiheeseen ja syventää näkemystä tärkeimpien teorioiden osalta. Tietokantojen analysointi osoitti selviä puutteita asiakastiedoissa. Peruskontaktitiedot löytyvät mutta segmentointia varten tietoa on erittäin rajoitetusti. Tietojen saantia jälleenmyyjiltä ja tukkureilta tulisi parantaa loppuasiakastietojen saannin takia. Segmentointi nykyisten tietojen varassa perustuu lähinnä sekundäärisiin tietoihin kuten toimialaan ja yrityskokoon. Näitäkään tietoja ei ole saatavilla kaikkien tietokannassa olevien yritysten kohdalta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of the research was to evaluate the suitability of small-size pine as a raw material for glueboard. A further aim was to investigate claims that dead knots and the twisting of the heartwood cause, quality problems in the but of the small-size pine. The theoretical framework of the study details the whole manufacturing process from raw material to the finished article; the description of the qualities of raw material, the sawing and drying processes as well as the making of the glueboard. The solve the research problem the following figures were calculated: amount of small-size pines, the yield and quality of sawn timber which can be used for making glueboard as well as the variables which affect the various stages of the process. The results show that about half of the timber from the thinning process was suitable material for sawing. The most common problem with the unsuitable timber was form defects of the stem. The average usage ratio of sawing was 2,31 k-m3/m3. 87,97 % of the sawn timber could be used for the production of glueboard. The unsuitability of sawn timber for making glueboard was mainly caused by breakage and the twisting of the heartwood. Dead knots were small and did not effect the quality of the but of the small-size pine. It can therefore be concluded that small-size pine is suitable raw material for glueboard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

It is a well known phenomenon that the constant amplitude fatigue limit of a large component is lower than the fatigue limit of a small specimen made of the same material. In notched components the opposite occurs: the fatigue limit defined as the maximum stress at the notch is higher than that achieved with smooth specimens. These two effects have been taken into account in most design handbooks with the help of experimental formulas or design curves. The basic idea of this study is that the size effect can mainly be explained by the statistical size effect. A component subjected to an alternating load can be assumed to form a sample of initiated cracks at the end of the crack initiation phase. The size of the sample depends on the size of the specimen in question. The main objective of this study is to develop a statistical model for the estimation of this kind of size effect. It was shown that the size of a sample of initiated cracks shall be based on the stressed surface area of the specimen. In case of varying stress distribution, an effective stress area must be calculated. It is based on the decreasing probability of equally sized initiated cracks at lower stress level. If the distribution function of the parent population of cracks is known, the distribution of the maximum crack size in a sample can be defined. This makes it possible to calculate an estimate of the largest expected crack in any sample size. The estimate of the fatigue limit can now be calculated with the help of the linear elastic fracture mechanics. In notched components another source of size effect has to be taken into account. If we think about two specimens which have similar shape, but the size is different, it can be seen that the stress gradient in the smaller specimen is steeper. If there is an initiated crack in both of them, the stress intensity factor at the crack in the larger specimen is higher. The second goal of this thesis is to create a calculation method for this factor which is called the geometric size effect. The proposed method for the calculation of the geometric size effect is also based on the use of the linear elastic fracture mechanics. It is possible to calculate an accurate value of the stress intensity factor in a non linear stress field using weight functions. The calculated stress intensity factor values at the initiated crack can be compared to the corresponding stress intensity factor due to constant stress. The notch size effect is calculated as the ratio of these stress intensity factors. The presented methods were tested against experimental results taken from three German doctoral works. Two candidates for the parent population of initiated cracks were found: the Weibull distribution and the log normal distribution. Both of them can be used successfully for the prediction of the statistical size effect for smooth specimens. In case of notched components the geometric size effect due to the stress gradient shall be combined with the statistical size effect. The proposed method gives good results as long as the notch in question is blunt enough. For very sharp notches, stress concentration factor about 5 or higher, the method does not give sufficient results. It was shown that the plastic portion of the strain becomes quite high at the root of this kind of notches. The use of the linear elastic fracture mechanics becomes therefore questionable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

To predict the capacity of the structure or the point which is followed by instability, calculation of the critical crack size is important. Structures usually contain several cracks but not necessarily all of these cracks lead to failure or reach the critical size. So, defining the harmful cracks or the crack size which is the most leading one to failure provides criteria for structure’s capacity at elevated temperature. The scope of this thesis was to calculate fracture parameters like stress intensity factor, the J integral and plastic and ultimate capacity of the structure to estimate critical crack size for this specific structure. Several three dimensional (3D) simulations using finite element method by Ansys program and boundary element method by Frank 3D program were carried out to calculate fracture parameters and results with the aid of laboratory tests (loaddisplacement curve, the J resistance curve and yield or ultimate stress) leaded to extract critical size of the crack. Two types of the fracture which is usually affected by temperature, Elastic and Elasti-Plastic fractures were simulated by performing several linear elastic and nonlinear elastic analyses. Geometry details of the weldment; flank angle and toe radius were also studied independently to estimate the location of crack initiation and simulate stress field in early stages of crack extension in structure. In this work also overview of the structure’s capacity in room temperature (20 ºC) was studied. Comparison of the results in different temperature (20 ºC and -40 ºC) provides a threshold of the structure’s behavior within the defined range.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis presents an approach for formulating and validating a space averaged drag model for coarse mesh simulations of gas-solid flows in fluidized beds using the two-fluid model. Proper modeling for fluid dynamics is central in understanding any industrial multiphase flow. The gas-solid flows in fluidized beds are heterogeneous and usually simulated with the Eulerian description of phases. Such a description requires the usage of fine meshes and small time steps for the proper prediction of its hydrodynamics. Such constraint on the mesh and time step size results in a large number of control volumes and long computational times which are unaffordable for simulations of large scale fluidized beds. If proper closure models are not included, coarse mesh simulations for fluidized beds do not give reasonable results. The coarse mesh simulation fails to resolve the mesoscale structures and results in uniform solids concentration profiles. For a circulating fluidized bed riser, such predicted profiles result in a higher drag force between the gas and solid phase and also overestimated solids mass flux at the outlet. Thus, there is a need to formulate the closure correlations which can accurately predict the hydrodynamics using coarse meshes. This thesis uses the space averaging modeling approach in the formulation of closure models for coarse mesh simulations of the gas-solid flow in fluidized beds using Geldart group B particles. In the analysis of formulating the closure correlation for space averaged drag model, the main parameters for the modeling were found to be the averaging size, solid volume fraction, and distance from the wall. The closure model for the gas-solid drag force was formulated and validated for coarse mesh simulations of the riser, which showed the verification of this modeling approach. Coarse mesh simulations using the corrected drag model resulted in lowered values of solids mass flux. Such an approach is a promising tool in the formulation of appropriate closure models which can be used in coarse mesh simulations of large scale fluidized beds.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The report describes those factors of the future that are related to the growth and needs of Russia, China, and India and that may provide significant internationalisation potential for Uusimaa companies. The report examines the emerging trends and market-entry challenges for each country separately. Additionally, it evaluates the training needs of Uusimaa companies in terms of the current offerings available for education on topics related to Russia, China, and India. The report was created via the Delphi method: experts were interviewed, and both Trendwiki material and the latest literature were used to create a summary of experts’ views, statements, and reasons behind recent developments. This summary of views was sent back to the experts with the objective of reaching consensus synthesising the differing views or, at least, of providing argumentation for the various alternative lines of development. In addition to a number of outside experts and business leaders, all heads of Finpro’s Finland Trade Centers participated in the initial interviews. The summary was commented upon by all Finpro consultants and analysts for Russia, China, and India, with each focusing on his or her own area of expertise. The literature used consisted of reports, listed for each country, and an extensive selection of the most recent newspaper articles. The report was created in January-April 2010. On 22 April 2010 its results were reviewed at the final report presentation in cooperation with the Uusimaa ELY Centre.