820 resultados para Sustainability, Triple Bottom Line, Appraisal, Environmental Benchmarks, Market Value
Resumo:
Studies of soils in Environmental Protection Areas (EPAs) are of great importance, because they are an essential component of ecosystems, directly interfering in environmental sustainability. The objective of this study was to evaluate the structural quality of soil cultivated with coffee and used as pasture in the Capituva's River microbasin, which is located in the Environmental Protection Area in Coqueiral, south of the state of Minas Gerais. Uniaxial compression test (preconsolidation test) and soil resistance to penetration were used. Undisturbed samples were taken from the surface layer (0-5 cm) of the soils in the area: a typic dystrophic Red Latosol (LVd - Oxisol), a typic eutrophic Red Argisol (PVe - Ultisol), and a typic dystrophic Haplic Cambisol (CXbd - Inceptisol). A significant linear positive correlation was observed between the results of the preconsolidation test and soil resistance to penetration. Load bearing capacity of soil could be estimated accordingly by means of penetration resistance for LVd, PVe, and CXbd. Cambisol - CXbd showed lower loading support capacity and resistance to penetration than LVd and PVe, due to the better crop management in this soil that resulted in higher physical quality which accounts for higher production and environmental sustainability.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
The paper deals with the development and application of the generic methodology for automatic processing (mapping and classification) of environmental data. General Regression Neural Network (GRNN) is considered in detail and is proposed as an efficient tool to solve the problem of spatial data mapping (regression). The Probabilistic Neural Network (PNN) is considered as an automatic tool for spatial classifications. The automatic tuning of isotropic and anisotropic GRNN/PNN models using cross-validation procedure is presented. Results are compared with the k-Nearest-Neighbours (k-NN) interpolation algorithm using independent validation data set. Real case studies are based on decision-oriented mapping and classification of radioactively contaminated territories.
Resumo:
The Transportation Equity Act of the 21st Century mandated environmental streamlining in order to improve transportation project delivery without compromising environmental protection. In accordance with TEA-21, the environmental review process for this project has been documented as a Streamlined Environmental Assessment. This document addresses only those resources or features that apply to the project. This allowed study and discussion of resources present in the study area, rather than expend effort on resources that were either not present or not impacted. Although not all resources are discussed in the EA, they were considered during the planning process and are documented in the Streamlined Resource Summary.
Resumo:
The objective of this analysis was to assess the radiation exposure associated with (90)Y-ibritumomab tiuxetan when used as consolidation therapy in adults with low or minimal tumor burden after first-line therapy of advanced follicular lymphoma (FL). METHODS: The patients who were enrolled in the phase 3 first-line indolent trial were 18 y or older, with CD20(+) grade 1 or 2 stage III or IV FL, and a partial response, complete response, or unconfirmed complete response to first-line chemotherapy. The patients were allocated randomly to receive a single infusion of unlabeled rituximab 250 mg/m(2) on day -7 and consolidation on day 0 with a single dose of (90)Y-ibritumomab tiuxetan, 14.8 MBq/kg, immediately after unlabeled rituximab, 250 mg/m(2), or no further treatment. On day -7, a subset of patients received an injection of 185 MBq of (111)In-ibritumomab tiuxetan immediately after unlabeled rituximab, 250 mg/m(2), for central dosimetry analysis. Correlations were assessed between organ radiation absorbed dose and toxicity, body weight, body mass index, and progression-free survival. RESULTS: Central dosimetry evaluations were available from 57 of 70 patients. Median radiation absorbed doses were 100 cGy (range, 28-327 cGy) for the red marrow and 72 cGy (range, 46-106 cGy) for the whole body. Radiation absorbed doses did not differ significantly between patients who had a partial response or complete response to initial therapy. Progression-free survival correlated significantly with the whole-body (r = 0.4401; P = 0.0006) and bone marrow (r = 0.2976; P = 0.0246) radiation dose. Body weight was significantly negatively correlated with whole-body radiation dose (r = -0.4971; P < 0.0001). Neither the whole-body radiation dose nor the bone marrow radiation dose correlated with hematologic toxicity. CONCLUSION: In patients with low or minimal residual tumor burden after first-line chemotherapy of advanced FL, whole-body and bone marrow exposure after (90)Y-ibritumomab tiuxetan consolidation showed a significant positive correlation with progression-free survival, whereas dosimetric data could not predict hematologic toxicity.
Resumo:
Abstract The late Neoproterozoic or Ediacaran period, (635 to -543 Ma) is a primordial time in the Earth history corresponding to the beginning of animal life and the most extreme ice ages on Earth. In this dissertation, palaeoenvironmental conditions were reconstructed for Ediacaran, post-Gaskiers shelf deposits in SW- Gondwana and their changes were evaluated according to the diversity of organisms. The present study addresses the question of interactions between biodiversity and environmental change by using the elemental and isotopic geochemistry of sedimentary rocks and associated organic matter, as well as the distribution of hydrocarbon biomarkers. The studied sedimentary sequences are from a large basin extended from the Paraguay belt to the Rio de la Plata craton, including the Corumbâ Group in SW-Brazil (Paraguay belt), the Arroyo del Soldado Group in Uruguay and the Sierras Bayas Group in Argentina (both in the Rio de la Plata craton). Several geochemical signatures of the sediments from Corumbâ and Sierras Bayas groups provides evidence for an euxinic setting in the Ediacaran Ocean: 1) The occurrence of syngenetic pyrite in the Corumbâ Group together with hydrocarbon biomarkers of an anoxic microbial consortium including traces of gammacerane, a distribution of hopanes with maxima at C29 as well as a low pristane/phytane (Pr/Ph) ratio; 2) the occurrence of 34S enrichments within sulfides of the Sierras Bayas Group exceeding the sulfur isotopic composition of coeval carbonate-associated sulfate. In the Arroyo del Soldado Group, an event of reducing conditions was revealed by higher concentrations of redox-sensitive trace elements and negative 513Ccar shifts in all sections. This event is extended to the whole unit in the deepest section and is restricted to tempestites in the two other shallow sections. The persistent negative. ôl3Ccar values recorded at the basinal setting implies strong isotopic gradient between shallow and deep water environments and therefore, a locus of deposition below the redox chemocline. In all studied sections, the excursions, the strong enrichment of authigenic trace-elements, the occurrence of longer chain «-alkanes, gammacerane and low Pr/Ph and Ph/>;-C]a ratios, combined with the previous sedimentological and paleontological observations indicate that the chemistry of the ocean was strongly controlled by the oxygen availability; waters being moderately oxic at the surface and anoxic at depth for much of the Neoproterozoic. This water column stratification was favourable to the storage of large amounts of nutrients in the deep ocean. During upwelling periods, the export of these nutrient-rich waters may have triggered an important bioproductivity in surface waters. Drops in Al3Cc,,.](Cr and positive ôl3Ccllr excursions highlight the increase in primary productivity. Preservation of organic carbon was ensured by reducing conditions at the bottom. The Al3ccar.kcr excursions could also reflect changes in the composition of the primary biomass. New geochemical evidence from SW-Gondwana sections supports a stratified Ediacaran ocean, outside restricted or hypersaline environments, in the aftermath of glaciations. The association of ocean stratification and the appearance of metazoans support the model that the evolution of eukaryotic life was related to the increase of oxygen levels in surface environments due to an efficient recycling of nutrients in the anoxic deep ocean. Résumé Le Néoprotérozoïque terminal, ou Édiacarien (635 à -543 Ma), est un période de première importance dans l'histoire de la Terre, car elle correspond a l'apparition des métazoaires pendant un intervalle de glaciations extrêmes. Le présent mémoire se propose de reconstituer les conditions paléoenvironnementales des dépôts de plateforme mis en place durant l'Édiacarien, au sud-ouest du Gondwana. Les interactions entre changements environnementaux et biodiversité sont évaluées en s'appuyant d'une part sur la composition élémentaire et isotopique des roches sédimentaires et de leur matière organique, et d'autre part sur la distribution moléculaire de biomarqueurs hydrocarbonés. Les séquences sédimentaires étudiées proviennent d'un grand bassin qui s'étend de la chaîne du Paraguay jusqu'au craton du Rio de la Plata. La séquence du Groupe Corumbâ au Sud Ouest du Brésil se situe dans la chaîne du Paraguay, tandis que le Groupe Arroyo del Soldado en Uruguay et le Groupe Sierras Bayas en Argentine sont situés sur le craton du Rio de la Plata. L'étude géochimique des sédiments des groupes Corumbâ et Sierras Bayas révèle de façon claire des conditions euxiniques dans l'océan édiacarien. On trouve ainsi, dans le Groupe Corumbâ, les biomarqueurs d'un cortège microbien anoxique et sulfurique comprenant des bactéries sulfato-réductrices, et dans les sulfures du Groupe Sierras Bayas, des enrichissements en Î4S excédant les rapports isotopiques du soufre dans le sulfate cogénétique associé aux carbonates. Dans la séquence de l'Arroyo del Soldado, un événement réducteur est mis en évidence par des teneurs plus élevées en éléments traces sensibles aux conditions redox et par des excursions négatives du 613Ccardans toutes les coupes. Cet événement affecte la totalité de la section la plus profonde et n'apparaît que dans les tempestites dans les sections les moins profondes. La persistance de valeurs négatives du ô13Ccarau large implique un gradient isotopique prononcé entre les environnements superficiels et profonds, et donc, ta présence d'une chémocline redox. Les excursions du. ôBCcar, l'enrichissement authigène en éléments traces, la présence de gammacérane et de rt-alcanes à longue chaîne, ainsi que de faibles rapports Pr/Ph et Ph/«-Cl8, viennent s'ajouter aux observations préliminaires sur la sédimentologie et la paléontologie pour indiquer que la chimie de l'océan était fortement contrôlée par la disponibilité d'oxygène, les eaux étant modérément oxiques à la surface et anoxiques en profondeur pendant la plus grande partie du Néoprotérozoïque. La stratification de la colonne d'eau était favorable au stockage de grandes quantités de nutriments dans l'océan profond. Dans les zones d'upwelling, la migration d'eaux profondes riches en nutriment vers la surface a pu provoquer une bioproductivité prononcée dans les eaux de surface. La conservation du carbone organique était assurée par les conditions anoxiques prévalant au fond. Les excursions du A13Ccar.kt.r pourraient aussi refléter des changements dans la biomasse primaire. Le présent travail apporte donc de nouvelles preuves qu'un océan stratifié s'est maintenu à la suite des glaciations néoprotérozoïques dans le Sud Ouest du Gondwana. L'association d'un océan stratifié et de l'apparition de la vie animale est en accord avec le modèle stipulant que l'évolution de la vie est associée à une meilleure oxygénation des environnements de surface. Résumé pour le grand public La période Ediacarienne (635 à -543 Ma) à la fin du Précambrien est l'une de plus énigmatiques dans l'histoire de la Terre, car elle est caractérisée par la diversification de la vie multicellulaire (eucaryote) pendant un intervalle de glaciations extrêmes. Dans ce travail de thèse, nous cherchons à déceler l'existence éventuelle d'un lien entre ces changements environnementaux et l'évolution de la vie eucaryote à travers une étude biogéochimique. La biogéochimie est l'étude des activités biologiques dans la géosphère, telles que celles intervenant dans les cycles des éléments chimiques (y compris les isotopes stables) et celles de production de composés carbonés caractérisant certains groups d'organismes ou taxons. La recherche des signatures paléoenvironnementales dans les roches précambriennes a été fortement facilitée par l'utilisation des biomarqueurs ou fossiles moléculaires. Ces composés, provenant des lipides biologiques (molécules avec des fonctions spécifiques dans les organismes), peuvent être reliés à des taxons spécifiques ou à des voies métaboliques. La transformation d'un biolipide en fossile moléculaire intervient lorsque des restes organiques déposés dans un substrat subissent un enfouissement et une augmentation de la pression (diagenèse). Ce processus mène à la formation de kérogène, un grand agrégat chimique de matière organique insoluble dans des solvants organiques, et de bitume ou fraction soluble (extractible) de la matière organique. L'analyse intégrée du kérogène et du bitume fournit des indications précieuses pour les reconstitutions paléoenvironnementales. Des conditions paléoenvironnementales ont ainsi été déterminées pour une plateforme marine Ediacarienne située dans la partie sud-américaine du bloc occidental du paléocontinent Gondwana. Les séquences sédimentaires étudiées appartiennent au même bassin qui s'étend de la ceinture du Paraguay (Groupe Corumbâ, Brésil) au craton du Rio de la Plata (Groupes Arroyo del Soldado, Uruguay et Sierras Bayas, Argentina). Nous nous sommes intéressés aux isotopes stables de carbonates et de la matière organique associée (kérogène et bitume), aux éléments majeurs et traces, ainsi qu'aux biomarqueurs caractérisant ces roches. Les résultats de cette dissertation suggèrent qu'au cours de l'Édiacarien, suite aux glaciations néoprotérozoïques dans le bloc occidental du Gondwana, l'océan était stratifié en zones spécifiques d'eaux riches en sulfures et dépourvues d'oxygène (euxiniques). L'association d'un océan stratifié et de l'apparition de la vie animale est en accord avec le modèle stipulant que l'évolution de la vie est associée à une meilleure oxygénation des environnements de surface. Les excursions isotopiques (tendance à des valeurs positives ou négatives) en constante fluctuation pour le carbone et très positives pour le soufre des sulfures, l'enrichissement en éléments trace et la présence de certains composés (e.g. gammacerane; Pr/Ph et Ph/«-Ci8 en basse proportion) conjugués aux observations sédimentologiques et paléontologiques des différents profils étudiés indiquent que la chimie de l'océan était fortement contrôlée par la disponibilité d'oxygène, avec des eaux modérément oxygénées en surface et euxiniques en profondeur pour la plupart du Néoprotérozoïque.
Resumo:
The main goal of this paper is to obtain a granular material formulated with Municipal Solid Waste Incinerarion (MSWI) bottom ash (BA) and air pollution control (APC) ash to be used as secondary building material. Previously, an optimum concrete mixture using both MSWI residues as aggregates was formulated. A compromise between the environmental behaviour and the economy of the process was considered. Unconfined compressive strength and abrasion resistance values were measured in order to evaluate the mechanical properties. From these results, the granular mixture was not suited for certain applications owing to the high BA/APC content and low cement percentages used to reduce the costs of the final product. Nevertheless, the leaching test performed showed that the concentrations of all heavy metals were below the limits established by the current Catalan legislation for their reutilization. Therefore, the material studied might be mainly used in embankments, where high mechanical properties are not needed and environmental safety is assured.
Resumo:
Market segmentation is an important issue when estimating the implicit price for an environmental amenity from a surrogate market like property. This paper tests the hypothesis of a segmentation of the housing market between tourists and residents and computes the implicit price for natural landscape quality in Swiss alpine resorts. The results show a clear segmentation between both groups of consumers, although tests also show that the estimated coefficient for landscape is similar in the tourists' model and in the residents'. However, since the functional form is non linear, the nominal - rather than relative - value of a change in natural landscape quality is higher in the tourist housing market than in the residents'. Hence, considering the segmentation of the market between tourists and residents is essential in order to provide valid estimates of the nominal implicit price of natural landscape quality.
Resumo:
Biochar has a relatively long half-life in soil and can fundamentally alter soil properties, processes, and ecosystem services. The prospect of global-scale biochar application to soils highlights the importance of a sophisticated and rigorous certification procedure. The objective of this work was to discuss the concept of integrating biochar properties with environmental and socioeconomic factors, in a sustainable biochar certification procedure that optimizes complementarity and compatibility between these factors over relevant time periods. Biochar effects and behavior should also be modelled at temporal scales similar to its expected functional lifetime in soils. Finally, when existing soil data are insufficient, soil sampling and analysis procedures need to be described as part of a biochar certification procedure.
Resumo:
Despite the important benefits for firms of commercial initiatives on the Internet, e-commerce is still an emerging distribution channel, even in developed countries. Thus, more needs to be known about the mechanisms affecting its development. A large number of works have studied firms¿ e-commerce adoption from technological, intraorganizational, institutional, or other specific perspectives, but there is a need for adequately tested integrative frameworks. Hence, this work proposes and tests a model of firms¿ business-to-consumer (called B2C) e-commerce adoption that is founded on a holistic vision of the phenomenon. With this integrative approach, the authors analyze the joint influence of environmental, technological, and organizational factors; moreover, they evaluate this effect over time. Using various representative Spanish data sets covering the period 1996-2005, the findings demonstrate the suitability of the holistic framework. Likewise, some lessons are learned from the analysis of the key building blocks. In particular, the current study provides evidence for the debate about the effect of competitive pressure, since the findings show that competitive pressure disincentivizes e-commerce adoption in the long term. The results also show that the development or enrichment of the consumers¿ consumption patterns, the technological readiness of the market forces, the firm¿s global scope, and its competences in innovation continuously favor e-commerce adoption.
Resumo:
Summary This dissertation explores how stakeholder dialogue influences corporate processes, and speculates about the potential of this phenomenon - particularly with actors, like non-governmental organizations (NGOs) and other representatives of civil society, which have received growing attention against a backdrop of increasing globalisation and which have often been cast in an adversarial light by firms - as a source of teaming and a spark for innovation in the firm. The study is set within the context of the introduction of genetically-modified organisms (GMOs) in Europe. Its significance lies in the fact that scientific developments and new technologies are being generated at an unprecedented rate in an era where civil society is becoming more informed, more reflexive, and more active in facilitating or blocking such new developments, which could have the potential to trigger widespread changes in economies, attitudes, and lifestyles, and address global problems like poverty, hunger, climate change, and environmental degradation. In the 1990s, companies using biotechnology to develop and offer novel products began to experience increasing pressure from civil society to disclose information about the risks associated with the use of biotechnology and GMOs, in particular. Although no harmful effects for humans or the environment have been factually demonstrated even to date (2008), this technology remains highly-contested and its introduction in Europe catalysed major companies to invest significant financial and human resources in stakeholder dialogue. A relatively new phenomenon at the time, with little theoretical backing, dialogue was seen to reflect a move towards greater engagement with stakeholders, commonly defined as those "individuals or groups with which. business interacts who have a 'stake', or vested interest in the firm" (Carroll, 1993:22) with whom firms are seen to be inextricably embedded (Andriof & Waddock, 2002). Regarding the organisation of this dissertation, Chapter 1 (Introduction) describes the context of the study, elaborates its significance for academics and business practitioners as an empirical work embedded in a sector at the heart of the debate on corporate social responsibility (CSR). Chapter 2 (Literature Review) traces the roots and evolution of CSR, drawing on Stakeholder Theory, Institutional Theory, Resource Dependence Theory, and Organisational Learning to establish what has already been developed in the literature regarding the stakeholder concept, motivations for engagement with stakeholders, the corporate response to external constituencies, and outcomes for the firm in terms of organisational learning and change. I used this review of the literature to guide my inquiry and to develop the key constructs through which I viewed the empirical data that was gathered. In this respect, concepts related to how the firm views itself (as a victim, follower, leader), how stakeholders are viewed (as a source of pressure and/or threat; as an asset: current and future), corporate responses (in the form of buffering, bridging, boundary redefinition), and types of organisational teaming (single-loop, double-loop, triple-loop) and change (first order, second order, third order) were particularly important in building the key constructs of the conceptual model that emerged from the analysis of the data. Chapter 3 (Methodology) describes the methodology that was used to conduct the study, affirms the appropriateness of the case study method in addressing the research question, and describes the procedures for collecting and analysing the data. Data collection took place in two phases -extending from August 1999 to October 2000, and from May to December 2001, which functioned as `snapshots' in time of the three companies under study. The data was systematically analysed and coded using ATLAS/ti, a qualitative data analysis tool, which enabled me to sort, organise, and reduce the data into a manageable form. Chapter 4 (Data Analysis) contains the three cases that were developed (anonymised as Pioneer, Helvetica, and Viking). Each case is presented in its entirety (constituting a `within case' analysis), followed by a 'cross-case' analysis, backed up by extensive verbatim evidence. Chapter 5 presents the research findings, outlines the study's limitations, describes managerial implications, and offers suggestions for where more research could elaborate the conceptual model developed through this study, as well as suggestions for additional research in areas where managerial implications were outlined. References and Appendices are included at the end. This dissertation results in the construction and description of a conceptual model, grounded in the empirical data and tied to existing literature, which portrays a set of elements and relationships deemed important for understanding the impact of stakeholder engagement for firms in terms of organisational learning and change. This model suggests that corporate perceptions about the nature of stakeholder influence the perceived value of stakeholder contributions. When stakeholders are primarily viewed as a source of pressure or threat, firms tend to adopt a reactive/defensive posture in an effort to manage stakeholders and protect the firm from sources of outside pressure -behaviour consistent with Resource Dependence Theory, which suggests that firms try to get control over extemal threats by focussing on the relevant stakeholders on whom they depend for critical resources, and try to reverse the control potentially exerted by extemal constituencies by trying to influence and manipulate these valuable stakeholders. In situations where stakeholders are viewed as a current strategic asset, firms tend to adopt a proactive/offensive posture in an effort to tap stakeholder contributions and connect the organisation to its environment - behaviour consistent with Institutional Theory, which suggests that firms try to ensure the continuing license to operate by internalising external expectations. In instances where stakeholders are viewed as a source of future value, firms tend to adopt an interactive/innovative posture in an effort to reduce or widen the embedded system and bring stakeholders into systems of innovation and feedback -behaviour consistent with the literature on Organisational Learning, which suggests that firms can learn how to optimize their performance as they develop systems and structures that are more adaptable and responsive to change The conceptual model moreover suggests that the perceived value of stakeholder contribution drives corporate aims for engagement, which can be usefully categorised as dialogue intentions spanning a continuum running from low-level to high-level to very-high level. This study suggests that activities aimed at disarming critical stakeholders (`manipulation') providing guidance and correcting misinformation (`education'), being transparent about corporate activities and policies (`information'), alleviating stakeholder concerns (`placation'), and accessing stakeholder opinion ('consultation') represent low-level dialogue intentions and are experienced by stakeholders as asymmetrical, persuasive, compliance-gaining activities that are not in line with `true' dialogue. This study also finds evidence that activities aimed at redistributing power ('partnership'), involving stakeholders in internal corporate processes (`participation'), and demonstrating corporate responsibility (`stewardship') reflect high-level dialogue intentions. This study additionally finds evidence that building and sustaining high-quality, trusted relationships which can meaningfully influence organisational policies incline a firm towards the type of interactive, proactive processes that underpin the development of sustainable corporate strategies. Dialogue intentions are related to type of corporate response: low-level intentions can lead to buffering strategies; high-level intentions can underpin bridging strategies; very high-level intentions can incline a firm towards boundary redefinition. The nature of corporate response (which encapsulates a firm's posture towards stakeholders, demonstrated by the level of dialogue intention and the firm's strategy for dealing with stakeholders) favours the type of learning and change experienced by the organisation. This study indicates that buffering strategies, where the firm attempts to protect itself against external influences and cant' out its existing strategy, typically lead to single-loop learning, whereby the firm teams how to perform better within its existing paradigm and at most, improves the performance of the established system - an outcome associated with first-order change. Bridging responses, where the firm adapts organisational activities to meet external expectations, typically leads a firm to acquire new behavioural capacities characteristic of double-loop learning, whereby insights and understanding are uncovered that are fundamentally different from existing knowledge and where stakeholders are brought into problem-solving conversations that enable them to influence corporate decision-making to address shortcomings in the system - an outcome associated with second-order change. Boundary redefinition suggests that the firm engages in triple-loop learning, where the firm changes relations with stakeholders in profound ways, considers problems from a whole-system perspective, examining the deep structures that sustain the system, producing innovation to address chronic problems and develop new opportunities - an outcome associated with third-order change. This study supports earlier theoretical and empirical studies {e.g. Weick's (1979, 1985) work on self-enactment; Maitlis & Lawrence's (2007) and Maitlis' (2005) work and Weick et al's (2005) work on sensegiving and sensemaking in organisations; Brickson's (2005, 2007) and Scott & Lane's (2000) work on organisational identity orientation}, which indicate that corporate self-perception is a key underlying factor driving the dynamics of organisational teaming and change. Such theorizing has important implications for managerial practice; namely, that a company which perceives itself as a 'victim' may be highly inclined to view stakeholders as a source of negative influence, and would therefore be potentially unable to benefit from the positive influence of engagement. Such a selfperception can blind the firm from seeing stakeholders in a more positive, contributing light, which suggests that such firms may not be inclined to embrace external sources of innovation and teaming, as they are focussed on protecting the firm against disturbing environmental influences (through buffering), and remain more likely to perform better within an existing paradigm (single-loop teaming). By contrast, a company that perceives itself as a 'leader' may be highly inclined to view stakeholders as a source of positive influence. On the downside, such a firm might have difficulty distinguishing when stakeholder contributions are less pertinent as it is deliberately more open to elements in operating environment (including stakeholders) as potential sources of learning and change, as the firm is oriented towards creating space for fundamental change (through boundary redefinition), opening issues to entirely new ways of thinking and addressing issues from whole-system perspective. A significant implication of this study is that potentially only those companies who see themselves as a leader are ultimately able to tap the innovation potential of stakeholder dialogue.
Resumo:
Venäjällä uudistetaan sähkömarkkinoita. Uudistamisella pyritään vapauttamaan sähkömarkkinat ja lisäämään kilpailua energiasektorilla. Sähkömarkkinoiden vapauttamisen tarkoitus on energiasektorin hyötysuhteen nostaminen ja investointien houkutteleminen sektorille. Venäjä on ratifioinut Kioton protokollan, mikä energiasektorin kannalta on tärkeää, koska protokollan yhteistoteutusmekanismin kautta saadaan houkuteltua investointeja sektorille. Venäjän sähkömarkkinoiden vapauttamisen pitkäaikainen tähtäin on Venäjän ja Euroopan sähkömarkkinoiden integroituminen, joka tarkoittaa myös ympäristölainsäädännönyhtenäistämistä. Tämä tutkimus on osa Fortum Oyj:n tarjoamaa teknistä katselmusta Venäjällä toimivalle sähköyhtiölle, TGC-9:lle. Tässä työssä keskitytään TGC-9:n omistamien energiatuotantolaitoksien happamoitumista aiheuttaviin ilmapäästöihin ja pölypäästöihin. Tutkimuksessa pyritään myös löytämään Kioton protokollan yhteistoteutusmekanismi hyödyntämiskohteita. NOx -päästöt tulevat olemaan suurin haaste TGC-9:lle, jos ympäristöstandardit yhdenmukaistetaan. Yhteistoteutusmekanismin hyödyntämiskohteita löydettiin neljä: koksaamokaasun hyödyntäminen, maakaasun korvaaminen kuoren poltolla ja kaksi tapausta liittyen laitoksien hyötysuhteen nostamiseen.
Resumo:
Tämän tutkimuksen tavoitteena on selvittää listautumisantien suoriutumista Suomen markkinoilla, sekä verrata pääomasijoittajien ja muiden listaamia yrityksiä. Tutkimusperiodina käytetään 36 kuukautta. Lisäksi tutkitaan lyhyen ajanjakson tuottoja näiden välillä. Tutkimuksessa selvitetään myös se, miten kansainvälisellä aineistollahavaitut, listautumisanteihin liittyvät anomaliat toteutuvat Suomessa. Tutkimuksen aineisto koostuu 48 yrityksestä, jotka listautuivat Helsingin pörssiin vuosien 1996 - 2000 välillä. Tutkimusmenetelmänä käytetään tapahtumatutkimusta. Kerätystä aineistosta lasketaan ylituotot kolmea eri menetelmää käyttämällä, eli lasketaan CAR-, BHAR- ja WR-ylituotot. Aineistolle tehdään myösregressio, jossa alisuoriutumista selitetään erilaisilla muuttujilla. Empiiristen tulosten mukaan listautumisannit keskimäärin alisuoriutuvat Suomen markkinoilla vertailukohteina käytettyihin indekseihin verrattuna. Tämän tulos tukee aiempia, kansainvälisiltä markkinoilta saatuja havaintoja. Sitä vastoin tämän tutkimuksen perusteella pääomasijoittajien listaamat yritykset alisuoriutuvat enemmän kuin muut listatut yritykset. Tämä havainto poikkeaa kansainvälisellä aineistolla tehdyistä tutkimuksista. Tutkittaessa portfolioiden ominaisuuksia, havaittiin erityisesti listautumisvuoden selittävän alisuoriutumisen voimakkuutta.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.