891 resultados para Project management Computer programs
Resumo:
Verkostoitunut kansainvälinen tuotekehitys on tärkeä osa menestystä nykypäivän muuttuvassa yritysmaailmassa. Toimintojen tehostamiseksi myös projektitoiminnot on sopeutettava kansainväliseen toimintaympäristöön. Kilpailukyvyn säilyttämiseksi projektitoimintoja on lisäksi jatkuvasti tehostettava. Yhtenäkeinona nähdään projektioppiminen, jota voidaan edistää monin eri tavoin. Tässätyössä keskitytään projektitiedonhallinnan kehittämisen tuomiin oppimismahdollisuuksiin. Kirjallisuudessa kerrotaan, että projektitiedon jakaminen ja sen hyödyntäminen seuraavissa projekteissa on eräs projektioppimisen edellytyksistä. Tämäon otettu keskeiseksi näkökulmaksi tässä tutkimuksessa. Lisäksi tutkimusalueen rajaamiseksi työ tarkastelee erityisesti projektioppimista kansainvälisten tuotekehitysprojektien välillä. Työn tavoitteena on esitellä keskeisiä projektioppimisen haasteita ja etsiä konkreettinen ratkaisu vastaamaan näihin haasteisiin. Tuotekehitystoiminnot ja kansainvälinen hajautettu projektiorganisaatio kohtaavat lisäksi erityisiä haasteita, kuten tiedon hajautuneisuus, projektihenkilöstön vaihtuvuus, tiedon luottamuksellisuus ja maantieteelliset haasteet (esim. aikavyöhykkeet ja toimipisteen sijainti). Nämä erityishaasteet on otettu huomioon ratkaisua etsittäessä. Haasteisiin päädyttiin vastaamaan tietotekniikkapohjaisella ratkaisulla, joka suunniteltiin erityisesti huomioiden esimerkkiorganisaation tarpeet ja haasteet. Työssä tarkastellaan suunnitellun ratkaisun vaikutusta projektioppimiseen ja kuinka se vastaa havaittuihin haasteisiin. Tuloksissa huomattiin, että projektioppimista tapahtui, vaikka oppimista oli vaikea suoranaisesti huomata tutkimusorganisaation jäsenten keskuudessa. Projektioppimista voidaan kuitenkin sanoa tapahtuvan, jos projektitieto on helposti koko projektiryhmän saatavilla ja se on hyvin järjesteltyä. Muun muassa nämä ehdot täyttyivät. Projektioppiminen nähdään yleisesti haastavana kehitysalueena esimerkkiorganisaatiossa. Suuri osa tietämyksestä on niin sanottua hiljaistatietoa, jota on hankala tai mahdoton saattaa kirjalliseen muotoon. Näin olleen tiedon siirtäminen jää suurelta osin henkilökohtaisen vuorovaikutuksen varaan. Siitä huolimatta projektioppimista on mahdollista kehittää erilaisin toimintamallein ja menetelmin. Kehitys vaatii kuitenkin resursseja, pitkäjänteisyyttä ja aikaa. Monet muutokset voivat vaatia myös organisaatiokulttuurin muutoksen ja vaikuttamista organisaation jäseniin. Motivaatio, positiiviset mielikuvat ja selkeät strategiset tavoitteet luovat vakaan pohjan projektioppimisen kehittämiselle.
Resumo:
Nowadays the used fuel variety in power boilers is widening and new boiler constructions and running models have to be developed. This research and development is done in small pilot plants where more faster analyse about the boiler mass and heat balance is needed to be able to find and do the right decisions already during the test run. The barrier on determining boiler balance during test runs is the long process of chemical analyses of collected input and outputmatter samples. The present work is concentrating on finding a way to determinethe boiler balance without chemical analyses and optimise the test rig to get the best possible accuracy for heat and mass balance of the boiler. The purpose of this work was to create an automatic boiler balance calculation method for 4 MW CFB/BFB pilot boiler of Kvaerner Pulping Oy located in Messukylä in Tampere. The calculation was created in the data management computer of pilot plants automation system. The calculation is made in Microsoft Excel environment, which gives a good base and functions for handling large databases and calculations without any delicate programming. The automation system in pilot plant was reconstructed und updated by Metso Automation Oy during year 2001 and the new system MetsoDNA has good data management properties, which is necessary for big calculations as boiler balance calculation. Two possible methods for calculating boiler balance during test run were found. Either the fuel flow is determined, which is usedto calculate the boiler's mass balance, or the unburned carbon loss is estimated and the mass balance of the boiler is calculated on the basis of boiler's heat balance. Both of the methods have their own weaknesses, so they were constructed parallel in the calculation and the decision of the used method was left to user. User also needs to define the used fuels and some solid mass flowsthat aren't measured automatically by the automation system. With sensitivity analysis was found that the most essential values for accurate boiler balance determination are flue gas oxygen content, the boiler's measured heat output and lower heating value of the fuel. The theoretical part of this work concentrates in the error management of these measurements and analyses and on measurement accuracy and boiler balance calculation in theory. The empirical part of this work concentrates on the creation of the balance calculation for the boiler in issue and on describing the work environment.
Resumo:
Paperikoneinvestointi toteutetaan projekteina, joista muodostuvaa ketjua kutsutaan projektien elinkaareksi. Toteutusketjun viimeinen lenkki on käynnistykseen huipentuva käyttöönotto. Hyvä käyttöönotto palvelee investointia. Käyttöönotoissa koetaan erilaisia ongelmatilanteita, joista osa on satunnaisesti tai usein toistuvia. Investoinnin onnistumisen ja aikataulun asettama paine luo tilanteiden selvittämiseen erityishaasteita. Aina ei selvitä ilman takaiskuja. Tutkimustavoitteena oli kartoittaa käyttöönoton yleiset ongelmat ja niiden yhteydet projektihistoriaan, sekä ne projektinhallinnan osa-alueet, joita parantamalla varmistetaan käyttöönoton ja investoinnin onnistuminen. Tutkimus pohjautuu erilaisistainvestointiprojekteista ja käyttöönotoista saatuihin kokemuksiin, haastatteluihin (3 kpl) ja kyselypalautteeseen (42 kpl). Investoinnin onnistumisedellytykset luodaan projektihistoriassa, käyttöönotossa ne viimeistellään. Onnistuminen mitataan tuotto-odotusten saavuttamisena aikataulussa, johon vaikuttavia tekijöitä ovat tuotannon hallinta, käyttövarmuus ja markkinat. Käyttöönoton onnistumista tulee arvioida käyttöönottotehtävistäsuoriutumisen pohjalta, ei pelkästään investoinnille asetettujen aikataulu- ja tuotantotavoitteiden (laatu, määrä, hallinta) saavuttamisena, kuten usein tapahtuu. Tulosten perusteella käyttöönoton merkittävimmät ongelmat ovat tiedonkulun puutteet, ohjelmallisten korjausten suuri määrä ja palautumisajan riittämättömyys. Tärkeimmät painotukset ovat laiterikkojen estäminen, ohjelmavirheiden korjaaminen ja henkilöstön osaamisen varmentaminen. Konelinjan vaikeimmin hallittava osa on radan päänvienti. Osapuolten poikkeavat näkökulmat sekä työn laadun merkitys testauksissa, koulutuksissa ja kenttätoiminnoissa nousee tuloksista myös vahvasti esiin. Tutkimus on selvittänyt sille asetetut tavoitteet. Käyttöönoton merkittävimmät ongelmat syntyvät sen lähihistoriassa: testauksissa, koulutuksessa ja kenttätoiminnoissa. Käyttöönoton onnistumiseksi tulee painotusprojektinhallinnassa keskittää käynnistysvaiheen suunnitteluun sekä kenttätoimintojen hallintaan.
Resumo:
Tutkimuksessa on tarkasteltu pienten tuotekehityshankkeiden tehokkuutta suuressa paperikoneita valmistavassa yrityksessä. Tutkimuksen osana on selvitetty sisäisen lanseerauksen kehitystarpeita oman myyntihenkilöstön aktivoinnissa, joka onolennainen osa uuden tuotteen onnistunutta markkinalanseerausta. Tuotekehityksen ja projektin johtamisen teoreettisen tutkimuksen esittelyn jälkeen tutkimuksessa on selvitetty liiketoimintaympäristön asettamia vaatimuksia yrityksen pienille tuotekehityshankkeille. Luodun teoreettisen viitekehikon avulla on tarkasteltu neljää tuotekehitysprojektia ja niiden onnistumiseen vaikuttaneita fundamentteja. Paras kilpailukyky case-liiketoiminnassa saavutetaan korkean teknologian tuotteilla, joiden kehittäminen yrityksen sisällä on strategisesti perusteltua. Matalan teknologian tuotteet tulisi hankkia pienemmiltä kilpailijoilta. Pienten kehitysprojektien nopeampi läpivienti tuoteyksiköissä vaatii yhtenäistä osaamista vaativien tuoteryhmien muodostamista sekä nykyistä selkeämpiä rooleja tuotteiden ja tuotekehityshenkilöstön välille. Organisaatiomuutoksesta johtuen tuoteyksiköiden tulee kehittää kontaktit Service-liiketoimintalinjan alaiseen myyntiverkostoon myynnin tukemiseksi. Sisäisen lanseerauksen laajuus tulee heijastaa uuden tuotteen monimutkaisuutta. Lisäksi tuotetietomyyntiverkostossa ei ole halutulla tasolla ja vaatii kehitystoimenpiteitä jatkossa.
Resumo:
Tapa, jolla yritys vastaa sen räätälöityvien tuotteiden kysyntään, määrittää yrityksen menestymisen. Sen on ymmärrettävä mikä arvo asiakkaalle syntyy, kun sen yksilökohtaiset tarpeet otetaan huomioon tuotetta räätälöitäessä. Toisaalta, yrityksen on ymmärrettävä kustannus, joka näiden tarpeiden huomioon ottamimisesta syntyy. Yhdistämällä nämä tiedot oikein tilaus-toimitus-prosessin suunnittelussa ja valinnassa voidaan kutakin valittua asiakasta tai asiakasryhmää palvella kannattavasti. Tämän diplomityöntavoite on kehittää tutkimuksen toimeksiantajan Vahterus Oy:n tilaus-toimitus-prosessia. Perusteena ovat kolmen tärkeimmän asiakasryhmän tarpeet sekä tieto nykyisestä prosessista. Tutkimuksen teoreettinen perusta luodaan tutustumalla kirjallisuuteen räätälöinnistä, asiakaslähtöisyydestä sekä toimitus-prosessien eriyttämisestä. Order-winner ja order-qualifier kriteerien selvittäminen ja niiden käyttö oikean prosessin valinnassa muodostaa tutkimuksen teoreettisen ytimen. Empiriaosassa analysoitiin case-yrityksen nykyisen tilaus-toimitus-prosessin toiminta. Prosessin kehittämistyön pohjaksi selvitetettiin case-yrityksen kolmen tärkeimmän asiakasryhmän erityispiirteet ja tarpeet haastattelututkimuksella. tilaus-toimitus-prosessin analyysissä havaittiin huomattavaa asiakasryhmäkohtaista vaihtelua läpimenoajoissa. Tämä johtui tilatun tuotteen tyypistä sekä asiakkaiden erityisvaatimuksista. Haastattelututkimuksessa vahvistuinäkemys asiakasryhmien tilaus-toimitus-prosessille asettamien vaatimuksien selkeistä eroista. Johtopäätöksenä esitetään erilaisia toimitusstrategioita eri asiakasryhmille. Kustannus-tehokkuutta ja nopeutta vaativalle asiakasryhmälle prosessia tehostetaan suunnitteluprosessin automatisoinnilla. Joustavuutta vaativaa, korkeampia kustannuksia sallivaa asiakasryhmää palvellaan paremmin kehittämällä projektihallinnan ja myynnin työkaluja sekä henkilökunnan osaamista. Tutkimuksen tärkein kontribuutio yritykselle oli asiakasryhmien erojen tiedostaminen ja niiden huomioon ottaminen toimitustrategioiden ja organisaation jatkuvassa kehittämisessä.
Resumo:
Työn tarkoituksena on tutkia tehonsiirron ratkaisuja, jotka mahdollistavat jatkuvanopeus ja -momentinsäädön. Työ on rajattu käsittämään kahta eri planeettavaihdetuotetta. Tutkimuksen kohteena ovat valittujen vaihdetuotteiden planeettapyörästöjen eri kytkentämahdollisuudet ja niiden vaikutus toisiinsa. Vaihteiden teknistä toteutusta ja toimivuutta tarkastellaan fyysisten testien, simuloinnin sekä analyyttisen laskennan avulla. Apuna työssä on käytetty Dymola simulointiohjelmaa, jossa kinemaattisten kuvakeliitäntöjen avulla on rakennettu virtuaalimalli tarkastellusta tuotteesta ja sen toiminnasta. Tietokoneen avulla luotua dynaamista simulointimallia on muokattu tutkimuksen edistyessä differentiaalisesti jatkuvasäätöisen momentinmuuntimen aikaan saamiseksi. Tuotteissa on käytetty aurinkopyörällisiä ja aurinkopyörättömiä planeettapyörästöjä. Ensimmäisessä tutkittavassa tuotteessa on kolme planeettapyörästöä ja toisessa kaksi. Teholähteeksi käy polttomoottori tai sähkömoottori. Välitys- ja pyörimissuhteiden muuntoon vaikuttaa planeettavaihteistoon kytketty sähkömoottori, jonka toimintaa voidaan ohjata erikseen. Työssä on selvitetty, millaisia kulmanopeuksia ja momentteja eri ajanhetkellä ja eri pisteissä simulointimallia esiintyy.Lisäksi selvitetään vaihteistojen portaattoman välityssuhteen muuntomahdollisuudet. Tarkoituksena on saada realistista informaatiota tutkittavien laitteiden toiminnasta. Johtavana ajatuksena on modernien menetelmien käyttäminen uusien innovaatioiden toimivuuden ja äärikohtien tutkimiseksi.
Resumo:
Työn tavoitteena on ideoida keinoja, joilla tehottomasti toimivaa tilaustoimitusprosessia voidaan kehittää. Ideoidut kehittämistoimet pohjautuvat tilaustoimitusprosessin toimivuutta selvittävään tutkimukseen ja niillä tavoitellaan kohdeyrityksessä valmistettavien suurien tahtikoneiden tilaustoimitusprosessin korkeampaa tuottavuutta ja laaduntuottokykyä, lyhyempiä läpäisyaikoja sekä pienempää keskeneräisen tuotannon määrää. Työssä keskitytään kehittämään tilaustoimitusprosessin alkupään vaiheiden eli tilauskohtaisen suunnittelun ja projektinhoidon epästandardeja toimintatapoja sekä puutteellisia työvälineitä. Työn tutkimusvaiheessa selvitetään tilaustoimitusprosessinnykytila prosessiin osallistuvia henkilöitä haastattelemalla, tutkimalla toteutuneita toimitusaika- ja nimikerakenteita sekä esiintyneitä laatupoikkeamia. Näin pyritään löytämään nykyisen toimintamallin ongelmakohdat, joihin kehittämisen painopistealue asetetaan. Tutkimusvaiheeseen kuuluu myös kirjallisuustutkimus, jossa paneudutaan tilaustoimitusprosessin toimintaan yleisellä tasolla sekä kartoitetaan niitä tekijöitä, jotka vaikuttavat tilaustoimitusprosessin tehokkuuteen. Lisäksi kirjallisuustutkimuksessa perehdytään yksittäistuotantoon liittyvään teoriaan ja erilaisiin tapoihin organisoida sen toimintaa. Tutkimusvaiheen jälkeen esitellään tutkimukseen pohjautuvat toimenpide-ehdotukset kohdeyrityksen tilaustoimitusprosessin tehokkuuden parantamiseksi.Ehdotettuja toimintaa tehostavia keinoja ovat simultaanisuunnittelu, erilaistensuunnittelun ja tuotannon yhteistyötä tukevien tietojärjestelmien rakentaminen,DFMA-analyysin käyttöönotto, tuotteiden rakenteiden tehokas modulointi sekä mallirakenne yrityksen heikoimmin vakioidulle tuotteelle. Ennen kehitystoimien aloittamista yrityksen toimistoprosessin toimivuutta ehdotetaan lisäksi tarkasteltavan työntutkimuksen keinoin.
Resumo:
Tutkimuksen tarkoituksena on kuvata ja ymmärtää kuinka sisäisiä kehityshankkeita voidaan hallita onnistuneesti kun toimitaan nopeasti muuttuvassa ympäristössä. Tutkimus kuvailee etenkin projekteille tärkeitä menestymistekijöitä, kuten suunnittelu, kontrollointi ja päätöksenteko. Tutkimus selvittää yleisimmät ongelma-alueet case-organisaation sisäisten kehityshankkeiden hallinnassa. Tutkimus on luonteeltaan laadullinen tutkimus, jossa tutkimusmenetelmänä on käytetty tapaustutkimusta. Empiirisessa osassa käsittellään case-organisaation sisäisiä informaatioteknologia-hankkeita (IT) ja uusien konseptien kehityshankkeita (NCD). iSisäisten kehityshankkeiden erilaisuuden ymmärtäminen oli tutkimuksen tärkein tulos. Tutkimuksen empiirinen osio osoitti sen, että epävarmuudella on erittäin suuri vaikutus projektihallintaan sekä projektin kontrollointiin. Case-organisaation IT-projektien onnistuminen riippuu organisaatiomuu-toksen onnistumisesta. Asiakkaisiin ja markkinoihin liittyvät epävarmuudet ovat vaikuttavimmat NCD projektien epävarmuuksista. Näillä epävarmuuk-silla on vaikutusta projektihallintaan jonka myötä NCD projektit juuttuvat useimmiten noidankehiin tai ne lopetetaan jo aikaisessa vaiheessa.
Resumo:
Tässä tutkielmassa selvitetään millainen yrityksen ensimmäisen kustannuslaskentajärjestelmän tulisi olla ja rakennetaan se kohdeyritykseen. Tutkimus on kvalitatiivinen casetutkimus, jonka tutkimusote on konstruktiivinen. Tutkielmassa selvitetään millaisia seikkoja on otettava huomioon kustannuslaskentajärjestelmää rakennettaessa. Tarkoituksena on selvittää miten erityisesti liiketoimintamalli (projektiliiketoiminta), yrityskoko (pieni) ja yrityksen ikä (nuori) vaikuttavat järjestelmän konfiguraatioon. Tutkimuksessa kootaan kustannuslaskentajärjestelmän rakentamisessa huomioitavista seikoista viitekehys. Tutkimuksessa selvisi, että kohdeyrityksen ensimmäisen kustannuslaskentajärjestelmän tulisi olla yksinkertainen, tuottaa oikeaa ja riittäväätietoa kustannuksista ja kannattavuuksista sekä projekti- että liiketoimintatasolla. Projektiliiketoiminnan kontekstissa järjestelmän on oltava joustava ja laskentakohteena tulee olla projektit. Nuoren iän ja pienen koon vuoksi talouden ohjauksen käytännöt vasta kehittyvät. Toiminnan kehittyminen ja ajankuluminen generoivat uusia talouden ohjauksen tarpeita.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
Over 70% of the total costs of an end product are consequences of decisions that are made during the design process. A search for optimal cross-sections will often have only a marginal effect on the amount of material used if the geometry of a structure is fixed and if the cross-sectional characteristics of its elements are property designed by conventional methods. In recent years, optimalgeometry has become a central area of research in the automated design of structures. It is generally accepted that no single optimisation algorithm is suitable for all engineering design problems. An appropriate algorithm, therefore, mustbe selected individually for each optimisation situation. Modelling is the mosttime consuming phase in the optimisation of steel and metal structures. In thisresearch, the goal was to develop a method and computer program, which reduces the modelling and optimisation time for structural design. The program needed anoptimisation algorithm that is suitable for various engineering design problems. Because Finite Element modelling is commonly used in the design of steel and metal structures, the interaction between a finite element tool and optimisation tool needed a practical solution. The developed method and computer programs were tested with standard optimisation tests and practical design optimisation cases. Three generations of computer programs are developed. The programs combine anoptimisation problem modelling tool and FE-modelling program using three alternate methdos. The modelling and optimisation was demonstrated in the design of a new boom construction and steel structures of flat and ridge roofs. This thesis demonstrates that the most time consuming modelling time is significantly reduced. Modelling errors are reduced and the results are more reliable. A new selection rule for the evolution algorithm, which eliminates the need for constraint weight factors is tested with optimisation cases of the steel structures that include hundreds of constraints. It is seen that the tested algorithm can be used nearly as a black box without parameter settings and penalty factors of the constraints.
Resumo:
Information Technology (IT) outsourcing has traditionally been seen as a means to acquire newresources and competencies to perform standard tasks at lowered cost. This dissertationchallenges the thought that outsourcing should be limited to non-strategic systems andcomponents, and presents ways to maximize outsourcing enabled benefits while minimizingassociated risks. In this dissertation IT outsourcing is approached as an efficiency improvement and valuecreationprocess rather than a sourcing decision. The study focuses on when and how tooutsource information technology, and presents a new set of critical success factors foroutsourcing project management. In a case study it re-validates the theory-based propositionthat in certain cases and situations it is beneficial to partly outsource also strategic IT systems. The main contribution of this dissertation is the validation of proposal that in companies wherethe level of IT competency is high, managerial support established and planning processes welldefined,it is possible to safely outsource also business critical IT systems. A model describing the critical success factors in such cases is presented based on existing knowledge on the fieldand the results of empirical study. This model further highlights the essence of aligning IT andbusiness strategies, assuming long-term focus on partnering, and the overall target ofoutsourcing to add to the strengths of the company rather than eliminating weaknesses.
Resumo:
Software engineering is criticized as not being engineering or 'well-developed' science at all. Software engineers seem not to know exactly how long their projects will last, what they will cost, and will the software work properly after release. Measurements have to be taken in software projects to improve this situation. It is of limited use to only collect metrics afterwards. The values of the relevant metrics have to be predicted, too. The predictions (i.e. estimates) form the basis for proper project management. One of the most painful problems in software projects is effort estimation. It has a clear and central effect on other project attributes like cost and schedule, and to product attributes like size and quality. Effort estimation can be used for several purposes. In this thesis only the effort estimation in software projects for project management purposes is discussed. There is a short introduction to the measurement issues, and some metrics relevantin estimation context are presented. Effort estimation methods are covered quite broadly. The main new contribution in this thesis is the new estimation model that has been created. It takes use of the basic concepts of Function Point Analysis, but avoids the problems and pitfalls found in the method. It is relativelyeasy to use and learn. Effort estimation accuracy has significantly improved after taking this model into use. A major innovation related to the new estimationmodel is the identified need for hierarchical software size measurement. The author of this thesis has developed a three level solution for the estimation model. All currently used size metrics are static in nature, but this new proposed metric is dynamic. It takes use of the increased understanding of the nature of the work as specification and design work proceeds. It thus 'grows up' along with software projects. The effort estimation model development is not possible without gathering and analyzing history data. However, there are many problems with data in software engineering. A major roadblock is the amount and quality of data available. This thesis shows some useful techniques that have been successful in gathering and analyzing the data needed. An estimation process is needed to ensure that methods are used in a proper way, estimates are stored, reported and analyzed properly, and they are used for project management activities. A higher mechanism called measurement framework is also introduced shortly. The purpose of the framework is to define and maintain a measurement or estimationprocess. Without a proper framework, the estimation capability of an organization declines. It requires effort even to maintain an achieved level of estimationaccuracy. Estimation results in several successive releases are analyzed. It isclearly seen that the new estimation model works and the estimation improvementactions have been successful. The calibration of the hierarchical model is a critical activity. An example is shown to shed more light on the calibration and the model itself. There are also remarks about the sensitivity of the model. Finally, an example of usage is shown.
Resumo:
Yritysten viimeaikaisten toiminnan hajauttamiseen sekä parempaan asiakastyytyväisyyteen tähtäävien liiketoimintasuuntausten johdosta projekteissa syntyvän tiedon määrä on kasvanut ja hallinta vaikeutunut. Tilanteen vuoksi yrityksissä on otettu käyttöön erilaisia menetelmiä sekä projekteissa syntyvän että tuotteisiin liittyvän tiedon hallintaan. Tämän diplomityön aiheena oli tutkia erityisesti tuotetiedon hallintajärjestelmiä hyödyntävien tuoteprojektien tiedonhallintaa. Tutkimuksen perusteella oli tavoitteena kehittää tuoteprojektien tiedonhallinnan toimintamalli kotimaiseen puolustusvälineteollisuuteen kuuluvalle Patria Asejärjestelmät -liiketoiminnalle. Teoriaosuudessa tarkasteltiin tuoteprojekteja, niissä syntyvää tietoa sekä niiden tiedonhallintaa. Lisäksi pohdittiin muun muassa tuotetiedon hallintajärjestelmien projektien hallintaan ja tiedonhallintaan liittyviä ominaisuuksia. Yritysosuudessa kartoitettiin Asejärjestelmien organisaation tietotarpeet ja luotiin yrityksen tuotetiedon hallintajärjestelmään näitä tarpeita vastaavat tiedon tallennusrakenteet. Myös tuoteprojekteissa syntyvien dokumenttien hallinnan menettelyohjeet päivitettiin uuden ympäristön mukaiseksi. Työn kannalta keskeisemmäksi ongelmaksi osoittautui projekteissa syntyvän tuotetiedon hallinta. Uudessa toimintamallissa Asejärjestelmissä siirrytään hallitsemaan tuotetietoa projekteista riippumattomasti. Lisäksi työssä esitetään useita kehitysehdotuksia tuoteprojektien tiedonhallinnan jatkokehitykselle.