999 resultados para filmogenic covering
Resumo:
Tässä diplomityössä tutkitaan dispariteettikartan laskennan tehostamista interpoloimalla. Kolmiomittausta käyttämällä stereokuvasta muodostetaan ensin harva dispariteettikartta, jonka jälkeen koko kuvan kattava dispariteettikartta muodostetaan interpoloimalla. Kolmiomittausta varten täytyy tietää samaa reaalimaailman pistettä vastaavat kuvapisteet molemmissa kameroissa. Huolimatta siitä, että vastaavien pisteiden hakualue voidaan pienentää kahdesta ulottuvuudesta yhteen ulottuvuuteen käyttämällä esimerkiksi epipolaarista geometriaa, on laskennallisesti tehokkaampaa määrittää osa dispariteetikartasta interpoloimalla, kuin etsiä vastaavia kuvapisteitä stereokuvista. Myöskin johtuen stereonäköjärjestelmän kameroiden välisestä etäisyydestä, kaikki kuvien pisteet eivät löydy toisesta kuvasta. Näin ollen on mahdotonta määrittää koko kuvan kattavaa dispariteettikartaa pelkästään vastaavista pisteistä. Vastaavien pisteiden etsimiseen tässä työssä käytetään dynaamista ohjelmointia sekä korrelaatiomenetelmää. Reaalimaailman pinnat ovat yleisesti ottaen jatkuvia, joten geometrisessä mielessä on perusteltua approksimoida kuvien esittämiä pintoja interpoloimalla. On myöskin olemassa tieteellistä näyttöä, jonkamukaan ihmisen stereonäkö interpoloi objektien pintoja.
Resumo:
Työssä tutkittiin kunnossapidon mahdollisuuksia vaikuttaa laitoksen elinkaareen ja elinkaaren aikaisiin kustannuksiin. Lisäksi tutkittiin teknisen suunnittelun vaikutusta kunnossapidettävyyteen ja laitoksen elinkaarikustannuksiin. Työn kirjallisuusosassa on tarkasteltu nykyaikaisia kunnossapidon menetelmiä.Erityisesti on tutkittu luotettavuuskeskeistä kunnossapitoa ja kunnossapidon tehtäviä laitoksen elinkaaren aikana. Investoinnin laitevalinnoilla ja niiden suunnittelulla on myös merkittävä vaikutus käyttöön ja erityisesti kunnossapitoon. Työn empiirisessä osassa selvitettiin Botnia Mill Servicen jaMetsä - Botnian toimintamalleja Joutsenon sellutehtaalla. Erityisesti keskityttiin suuriin korjauksiin ja niiden kustannusten hallintaan. Myös kunnossapidon toimintamallia ja sen kehittämistä on tutkittu. Kokeellisessa osassa selvitettiin kunnossapidolle tyypillinen toimintamalli laitoksen elinkaaren hallintaa varten. Tehdyn selvityksen pohjalta voidaan todeta, että pitkän tähtäimen suunnittelu luo pohjaa kustannusten hallinnalle ja laitteiden kunnon ylläpidolle. Suunnittelun aikajänne tulisi olla laitteiden kunnostusten osalta vähintään kolme vuotta. Koko laitoksen kattava elinkaarisuunnitelma on hyvä laatia joheti käyttöönottovaiheen jälkeen. Pitkäjänteisellä suunnittelulla ja sen toteutuksella pystytään parhaalla mahdollisella tavalla ylläpitämään käyttöomaisuuden arvo. Kunnossapidolla on mahdollisuus vaikuttaa laitoksen käyttöomaisuuden arvonylläpitoon hallitsemalla elinkaarikustannuksia. Kunnossapidon onnistuneen toteutuksen takaa oikeanlainen johtaminen ja jatkuva osaamisen ylläpito. Myös kunnossapidossa sovitut toimintamallit ja järjestelmien jatkuva ylläpito ja kehittäminen takaavat onnistuneen toiminnan.
Resumo:
This paper contributes to the literature by applying the Granger causality approach and endogenous breakpoint test to offer an operational definition of contagion to examine European Economic and Monetary Union (EMU) countries public debt behaviour. A database of yields on 10-year government bonds issued by 11 EMU countries covering fourteen years of monetary union is used. The main results suggest that the 41 new causality patterns, which appeared for the first time in the crisis period, and the intensification of causality recorded in 70% of the cases, provide clear evidence of contagion in the aftermath of the current euro debt crisis.
Resumo:
Kaatopaikalle sijoitetut biohajoavat orgaaniset jätteet muodostavat jätetäytön hapettomissa olosuhteissa kaatopaikkakaasua, joka koostuu pääasiassa metaanista ja hiilidioksidista. Kaatopaikkakaasun sisältämän metaanin takia, kaasusisältää merkittävästi energiaa, joka on hyödynnettävissä eri tavoin. Tämän diplomityön tavoitteena oli tarkastella vaihtoehtoja Anjalankosken Keltakankaan kaatopaikoilla muodostuvan kaatopaikkakaasun hyödyntämiseksi. Tarkastellut vaihtoehdot tarjoavat ympäristöllisten hyötyjen lisäksi liiketoiminnallista hyötyä Ekoparkissa toimiville yrityksille. Tutkimuksessa tehdyt laskelmatosoittivat, että työssä tarkastellut kaatopaikkakaasun hyötykäyttövaihtoehdot ovat sekä taloudellisesti että kaasun riittävyyden kannalta hyödynnettävissä. Esimerkiksi kaatopaikkakaasun hyödyntämisellä kaukolämmön tuotannossa voidaan kattaa noin kolmannes Anjalankosken vuotuisesta kaukolämmön tarpeesta. Kaatopaikkakaasun lietteen kuivauskapasiteetti kattaa Pohjois-Kymenlaaksossa muodostuvan jätevesilietteen käsittelytarpeen. Biopolttoaineen kuivauskapasiteetti on riittävä olemassa oleviin valmistuslaitosten tuotantokapasiteetteihin verrattuna. Myös perinteisillä sähkön- ja lämmöntuotantotekniikoilla voidaan kattaa Ekoparkin oma sähkön- ja lämmöntarve. Kaatopaikkavesien haihdutus ei tulosten perusteella ole sekä taloudellisesti että kaasun riittävyyden kannalta hyödynnettävissä. Tuhkan vitrifioinnissa haasteen muodostaa investointikustannuksen suuruus. Anjalankosken Ekoparkin yritykset voivat hyödyntää työn tuloksia uuden liiketoiminnan kehittämiseen. Lisäksi tuloksia voidaan hyödyntää soveltaen eri kokoluokan kaatopaikkojen kaatopaikkakaasujen hyötykäyttöä suunniteltaessa.
Resumo:
Työn tavoitteena oli kartoittaa metsäteollisuuden tuotantolaitoksissa syntyvän lentotuhkan laadun vaikutusta hyötykäyttökohteisiin. Hyötykäyttökohteista tarkasteltiin tuhkien soveltumista maarakentamiseen, päällystettyyn- ja peitettyyn rakenteeseen, pelto- ja puutarhakäyttöön, maisemointiin ja viherrakentamiseen sekä metsäkäyttöön. Tuhka-analyysien tietojen perusteella tuhkalle määritettiin mahdollinen hyötykäyttökohde verrattaessa niitä lainsäädännönasettamiin raja-arvoihin jokaisessa hyötykäyttökohteessa. Lisäksi tarkasteltiinmahdollisia esteitä tuhkan käytölle tietyissä hyötykäyttökohteissa sekä pyrittiin saamaan tuhkalle järkevämpi loppusijoituspaikka kuin kaatopaikka. Kirjallisuusosaan on koottu metsäteollisuudessa käytössä olevat polttomenetelmät sekä poltettavat raaka-aineet. Eri polttojakeiden tuhkien koostumuksista on tehty yhteenveto kirjallisuudesta löytyvien tietojen perusteella. Lisäksi kirjallisuusosassa on esitetty lentotuhkan fraktiointimenetelmiä sekä eri hyötykäyttökohteet ja niiden vaatimukset lentotuhkalta. Kokeellisessa osassa on vertailtu olemassa olevien tuhkanäytteiden haitta-aineiden pitoisuuksia eri hyötykäyttökohteiden vaadittuihin raja-arvoihin. Tähän työhön valittiin viisi eri metsäteollisuuden tuotantolaitosta Suomesta ja niille jokaiselle pyrittiin löytämään parhaiten soveltuva loppukäyttö. Metsäteollisuuden tuotantolaitoksilla poltetaan useita eri polttojakeita. Lisäksi polttoainekoostumus ja -määrä vaihtelevat vuositasolla. Tämä vaikuttaa tuhkan laatuun ja vaikeuttaa tuhkan hyödyntämistä eri hyötykäyttökohteissa. Jokaiselle tuhkan eri hyötykäyttökohteelle on säädetty omat raja-arvonsa, joka rajoittaa tuhkan hyötykäyttöä. Tällä hetkellä tuhkaa hyödynnetään eniten metsälannoitteena, jolloin puuaineksen mukana poistuneet ravinteet saadaan palautettua takaisin luontoon. Myös tuhkan hyödyntäminen maarakentamisessa on järkevää, koska silloin korvataan maa-ainesta tuhkalla ja vältytään kaatopaikkasijoittamiselta. Yleisesti pelto- ja puutarhakäyttöä ajatellen raja-arvot ovat liian tiukat metsäteollisuuden lentotuhkalle.
Resumo:
Background: The 1st Swiss federal Transplant Law was finally enforced in July 2007 with the obligation to promote quality and efficiency in transplant procedures. The LODP was created to develop organ and tissue donation in the Latin area of Switzerland covering seventeen hospitals (29% of the population).Methods: Each of the partner hospitals designated at least one Local Donor Coordinator (LDC), member of the Intensive Care team, trained in the organ donation (OD) process. The principal tasks of the LDC's are the introduction of OD procedures, organisation of educational sessions for hospital staff and execution of the Donor Action programme. The LODP has been operational since July 2009, when training of the LDC's was completed, the web-site and hotline activated and the attendance of Transplant Procurement Coordinators (TPC) during the OD process organised.Results: National and regional guidelines are accessible on the LODP website. The Hospital Attitude Survey obtained a 57% return rate. Many of the staff requested training and sessions are now running in the partner hospitals. The Medical Record Revue revealed an increase in the conversion rate from 3.5% to 4.5%. During the 5 years before creation of LODP the average annual number of utilised donors was 31, an increase of 70%, has since been observed.Conclusion: This clear progression in utilised donors in the past two years can be attributed to the fact that partner hospitals benefit from the various support given (hotline, website and from TPC's). Despite the increase in OD within the LODP the Swiss donation rates remain low, on average 11.9 donors per million population. This successful model should be applied throughout Switzerland, but the crucial point is to obtain financial support.
Resumo:
Despite the increasing understanding of the relationships between institutions and entrepreneurship, the influence of the quality of government institutions on entrepreneurship is less addressed. This paper focuses on this critical determinant of entrepreneurship in developing and developed countries. Drawing from institutional theory we hypothesize and empirically assess the role of the quality of institutions in entrepreneurial activity. We examine how the quality of government institutions influences the rate of necessity-based entrepreneurial activity across countries and over time by using a cross-sectional time-series approach on data from the Global Entrepreneurship Monitor (GEM) database covering the years 2001–2011. Our results suggest that higher economic development associated with better quality of institutions reduces the prevalence of necessity-based entrepreneurship. Our findings imply that developing countries must rationally organize their functions, and seek to remove unnecessary barriers, decrease political instability, and controls that hamper entrepreneurial activity
Resumo:
The hydrological and biogeochemical processes that operate in catchments influence the ecological quality of freshwater systems through delivery of fine sediment, nutrients and organic matter. Most models that seek to characterise the delivery of diffuse pollutants from land to water are reductionist. The multitude of processes that are parameterised in such models to ensure generic applicability make them complex and difficult to test on available data. Here, we outline an alternative - data-driven - inverse approach. We apply SCIMAP, a parsimonious risk based model that has an explicit treatment of hydrological connectivity. we take a Bayesian approach to the inverse problem of determining the risk that must be assigned to different land uses in a catchment in order to explain the spatial patterns of measured in-stream nutrient concentrations. We apply the model to identify the key sources of nitrogen (N) and phosphorus (P) diffuse pollution risk in eleven UK catchments covering a range of landscapes. The model results show that: 1) some land use generates a consistently high or low risk of diffuse nutrient pollution; but 2) the risks associated with different land uses vary both between catchments and between nutrients; and 3) that the dominant sources of P and N risk in the catchment are often a function of the spatial configuration of land uses. Taken on a case-by-case basis, this type of inverse approach may be used to help prioritise the focus of interventions to reduce diffuse pollution risk for freshwater ecosystems. (C) 2012 Elsevier B.V. All rights reserved.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Tutkimus tarkastelee johdon laskentatoimea yritysverkostoissa. Tutkimuksen tavoitteena on lisätä ymmärrystä koskien sitä, millaisia tarpeita verkostoituneilla yrityksillä on johdon laskentatoimen suhteen ja millaiset ovat verkostotasoisten laskentajärjestelmien soveltamismahdollisuudet. Johdon laskentatoimea ja yritysverkostoja on tutkittu erillisinä alueina jo varsin pitkään, mutta verkostoituneen toimintamuodon yleistymisestä huolimatta johdon laskentatoimen tutkimus nimenomaan verkostoympäristössä onvasta alkuvaiheessa. Tämä tutkimus on toteutettu suomalaisissa verkostoituneissa metalliteollisuusyrityksissä. Tutkitut verkostot muodostuvatverkoston ydinyrityksestä ¿ kärkiyrityksestä - ja sen ympärille ryhmittyneistä pienistä toimittajayrityksistä. Tutkimus on toteutettu käyttäen teemahaastatteluja, joita suoritettiin neljässä eri yritysverkostossa. Tutkimusote on luonteeltaan laadullinen ja pääosin kuvaileva. Verkostojen laskentatoimen tutkimuksessa pienten toimittajayritysten näkemykset ja asenteet laskennan kehittämistä kohtaan ovat jääneet taka-alalle. Tämän tutkimuksen keskeisenä näkökulmana on juuri verkostoituneiden pk-yritystentarpeet, asenteet ja mahdollisuudet osallistua laskentatoimen kehitystyöhön. Tutkimuksessa tarkastellaan johdon laskentatoimea yleisellä tasolla, eikä rajauduta yksittäisiin menetelmiin. Tutkimus toi esille joitakin informaatiotarpeita verkostotasolla. Useita jalostusvaiheita eri yrityksissä käsittävässä tuotannossa vaikeutena on tietää tarkalleen missä tilaus etenee ja milloin tilaus saapuu yritykseen jalostettavaksi. Toimittajayritykset kaipaavat myös tarkempaa ja pidemmän ajanjakson kattavaa tietoa verkoston kärkiyrityksen tilauskannasta. Informaatiopuutteet aiheuttavat turhaa työtä ja vaikeuttavat resurssien ohjausta. Tutkituissa verkostoissa suunnittelua avustavalle budjetoinnille olisi tarpeita, mutta yhteistä budjetointia ei ole käytännössä toteutettu. Verkostojen laskentatoimessa kustannusten avoin esittäminen kumppaneille tai yleisemmin avoimuus koskien muitakin toiminnan mittareita on keskeisin tekijä, johon verkoston laskentatoimen toteuttaminen tiivistyy. Tutkituista verkostoista kahdessa avoimuus toteutui koskien kustannuksia, kahdessa muussa verkostossa kärkiyritykset eivät nähneet toimittajien kustannustietoja verkoston kilpailukyvyn kannalta merkittäväksi. Kustannusten avoimen esittämisen taustatekijöinä korostuivat kärkiyrityksen tuki, monimutkaisten konstruktioiden aiheuttamat hinnoitteluongelmat ja kannattavan asiakassuhteen varmistaminen. Verkostolaskennan kehittämisessä kärkiyrityksen rooli korostuu. Jos toimittajayritykset eivät tunnista verkostolaskennan tarjoamia mahdollisuuksia toiminnan yhteisessä kehittämisessä ja ohjaamisessa, on kärkiyrityksen pystyttävä perustelemaan toimittajille uskottavasti mitä hyötyä laskentajärjestelmistä on koko verkostolle ja erityisesti toimittajayrityksille. Tutkittujen yritysten on pystyttävä rutinoimaan nyt yleisellä tasolla toimiva keskustelu järjestelmälliseksi suunnittelu- ja ohjaustyöksi. Hyvät kokemuksetyksinkertaisistakin laskenta- ja seurantajärjestelmistä parantavat mahdollisuuksia soveltaa myös kattavampia ja luottamuksellisempaa tietoa sisältäviä laskentajärjestelmiä.
Resumo:
Firms operating in a changing environment have a need for structures and practices that provide flexibility and enable rapid response to changes. Given the challenges they face in attempts to keep up with market needs, they have to continuously improve their processes and products, and develop new products to match market requirements. Success in changing markets depends on the firm's ability to convert knowledge into innovations, and consequently their internal structures and capabilities have an important role in innovation activities. According 10 the dynamic capability view of the firm, firms thus need dynamic capabilities in (he form ofassets, processes and structures that enable strategic flexibility and support entrepreneurial opportunity sensing and exploitation. Dynamic capabilities are also needed in conditions of rapid change in the operating environment, and in activities such as new product development and expansion to new markets. Despite the growing interest in these issues and the theoretical developments in the field of strategy research, there are still only very few empirical studies, and large-scale empirical studies in particular, that provide evidence that firms'dynamic capabilities are reflected in performance differences. This thesis represents an attempt to advance the research by providing empirical evidence of thelinkages between the firm's dynamic capabilities and performance in intenationalization and innovation activities. The aim is thus to increase knowledge and enhance understanding of the organizational factors that explain interfirm performance differences. The study is in two parts. The first part is the introduction and the second part comprises five research publications covering the theoretical foundations of the dynamic capability view and subsequent empirical analyses. Quantitative research methodology is used throughout. The thesis contributes to the literature in several ways. While a lot of prior research on dynamic capabilities is conceptual in nature, or conducted through case studies, this thesis introduces empirical measures for assessing the different aspects, and uses large-scale sampling to investigate the relationships between them and performance indicators. The dynamic capability view is further developed by integrating theoretical frameworks and research traditions from several disciplines. The results of the study provide support for the basic tenets of the dynamic capability view. The empirical findings demonstrate that the firm's ability to renew its knowledge base and other intangible assets, its proactive, entrepreneurial behavior, and the structures and practices that support operational flexibility arepositively related to performance indicators.
Resumo:
Building and sustaining competitive advantage through the creation of market imperfections is challenging in a constantly changing business environment - particularly since the sources of such advantages are increasingly knowledge-based. Facilitated by improved networks and communication, knowledge spills over to competitors more easily than before,thus creating an appropriability problem: the inability of an innovating firm to utilize its innovations commercially. Consequently, as the importance of intellectual assets increases, their protection also calls for new approaches. Companies have various means of protection at their disposal, and by taking advantage of them they can make intangibles more non-transferable and prevent, or at leastdelay, imitation of their most crucial intellectual assets. However, creating barriers against imitation has another side to it, and the transfer of knowledge in situations requiring knowledge sharing may be unintentionally obstructed. Theaim of this thesis is to increase understanding of how firms can balance knowledge protection and sharing so as to benefit most from their knowledge assets. Thus, knowledge protection is approached through an examination of the appropriability regime of a firm, i.e., the combination of available and effective means ofprotecting innovations, their profitability, and the increased rents due to R&D. A further aim is to provide a broader understanding of the formation and structure of the appropriability regime. The study consists of two parts. The first part introduces the research topic and the overall results of the study, and the second part consists of six complementary research publications covering various appropriability issues. The thesis contributes to the existing literature in several ways. Although there is a wide range of prior research on appropriability issues, a lot of it is restricted either to the study of individual appropriability mechanisms, or to comparing certain features of them. These approaches are combined, and the relevant theoretical concepts are clarified and developed. In addition, the thesis provides empirical evidence of the formation of the appropriability regime, which is consequently presented as an adaptive process. Thus, a framework is provided that better corresponds to the complex reality of the current business environment.
Resumo:
The effect of environmental conditions immediately before anthesis on potential grain weight was investigated in wheat at the experimental field of the Faculty of Agronomy (University of Buenos Aires, Argentina) during 1995 and 1996. Plants of two cultivars of wheat were grown in two environments (two contrasting sowing dates) to provide different background temperature conditions. In these environments, transparent boxes were installed covering the spikes in order to increase spike temperature for a short period (c. 6 days) immediately before anthesis, i.e. between ear emergence and anthesis. In both environments, transparent boxes increased mean temperatures by at least 3n8 mC. These increases were almost entirely due to the changes in maximum temperatures because minimum temperatures were little affected. Final grain weight was significantly reduced by higher temperature during the ear emergence–anthesis period. It is possible that this reduction could be mediated by the effect of the heat treatment on carpel weight at anthesis because a curvilinear association between final grain weight and carpel weight at anthesis was found. This curvilinear association may also indicate a threshold carpel weight for maximizing grain weight.
Resumo:
Els materials de canvi de fase (PCM) han estat considerats per a l’emmagatzematge tèrmic en edificis des de 1980. Amb la inclusió dels PCM en plaques de guix, guix, formigó o altres materials que s’utilitzen per a cobrir les parets, l’emmagatzematge tèrmic pot ser part de les estructures fins i tot en edificis lleugers. Les noves tècniques de microencapsulació han obert moltes possibilitats en aplicacions per a edificis. El treball que es presenta és el desenvolupament d’un formigó innovador mesclat amb PCM microencapsulat, amb un punt de fusió de 26 oC i una entalpia de canvi de fase de 110 kJ/kg. El primer experiment va ser la inclusió del PCM microencapsulat dins del formigó i la construcció d’una caseta amb aquest nou formigó-PCM. Es va construir una segona caseta al costat de la primera amb les mateixes característiques i orientació però amb formigó convencional que serveix com a referència. Durant els anys 2005 i 2006 es va analitzar el comportament d’ambdues casetes i més tard es va edificar un mur Trombe a la paret sud de totes dues per investigar la seva influència durant la tardor i l’hivern.
Resumo:
OBJECTIVE: The cause precipitating intracranial aneurysm rupture remains unknown in many cases. It has been observed that aneurysm ruptures are clustered in time, but the trigger mechanism remains obscure. Because solar activity has been associated with cardiovascular mortality and morbidity, we decided to study its association to aneurysm rupture in the Swiss population. METHODS: Patient data were extracted from the Swiss SOS database, at time of analysis covering 918 consecutive patients with angiography-proven aneurysmal subarachnoid hemorrhage treated at 7 Swiss neurovascular centers between January 1, 2009, and December 31, 2011. The daily rupture frequency (RF) was correlated to the absolute amount and the change in various parameters of interest representing continuous measurements of solar activity (radioflux [F10.7 index], solar proton flux, solar flare occurrence, planetary K-index/planetary A-index, Space Environment Services Center [SESC] sunspot number and sunspot area) using Poisson regression analysis. RESULTS: During the period of interest, there were 517 days without recorded aneurysm rupture. There were 398, 139, 27, 12, 1, and 1 days with 1, 2, 3, 4, 5, and 6 ruptures per day. Poisson regression analysis demonstrated a significant correlation of F10.7 index and RF (incidence rate ratio [IRR] = 1.006303; standard error (SE) 0.0013201; 95% confidence interval (CI) 1.003719-1.008894; P < 0.001), according to which every 1-unit increase of the F10.7 index increased the count for an aneurysm to rupture by 0.63%. A likewise statistically significant relationship of both the SESC sunspot number (IRR 1.003413; SE 0.0007913; 95% CI 1.001864-1.004965; P < 0.001) and the sunspot area (IRR 1.000419; SE 0.0000866; 95% CI 1.000249-1.000589; P < 0.001) emerged. All other variables analyzed showed no significant correlation with RF. CONCLUSIONS: We found greater radioflux, SESC sunspot number, and sunspot area to be associated with an increased count of aneurysm rupture. The clinical meaningfulness of this statistical association must be interpreted carefully and future studies are warranted to rule out a type-1 error.