424 resultados para työn vaativuus


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis consists of an introduction, four research articles and an appendix. The thesis studies relations between two different approaches to continuum limit of models of two dimensional statistical mechanics at criticality. The approach of conformal field theory (CFT) could be thought of as the algebraic classification of some basic objects in these models. It has been succesfully used by physicists since 1980's. The other approach, Schramm-Loewner evolutions (SLEs), is a recently introduced set of mathematical methods to study random curves or interfaces occurring in the continuum limit of the models. The first and second included articles argue on basis of statistical mechanics what would be a plausible relation between SLEs and conformal field theory. The first article studies multiple SLEs, several random curves simultaneously in a domain. The proposed definition is compatible with a natural commutation requirement suggested by Dubédat. The curves of multiple SLE may form different topological configurations, ``pure geometries''. We conjecture a relation between the topological configurations and CFT concepts of conformal blocks and operator product expansions. Example applications of multiple SLEs include crossing probabilities for percolation and Ising model. The second article studies SLE variants that represent models with boundary conditions implemented by primary fields. The most well known of these, SLE(kappa, rho), is shown to be simple in terms of the Coulomb gas formalism of CFT. In the third article the space of local martingales for variants of SLE is shown to carry a representation of Virasoro algebra. Finding this structure is guided by the relation of SLEs and CFTs in general, but the result is established in a straightforward fashion. This article, too, emphasizes multiple SLEs and proposes a possible way of treating pure geometries in terms of Coulomb gas. The fourth article states results of applications of the Virasoro structure to the open questions of SLE reversibility and duality. Proofs of the stated results are provided in the appendix. The objective is an indirect computation of certain polynomial expected values. Provided that these expected values exist, in generic cases they are shown to possess the desired properties, thus giving support for both reversibility and duality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The monograph dissertation deals with kernel integral operators and their mapping properties on Euclidean domains. The associated kernels are weakly singular and examples of such are given by Green functions of certain elliptic partial differential equations. It is well known that mapping properties of the corresponding Green operators can be used to deduce a priori estimates for the solutions of these equations. In the dissertation, natural size- and cancellation conditions are quantified for kernels defined in domains. These kernels induce integral operators which are then composed with any partial differential operator of prescribed order, depending on the size of the kernel. The main object of study in this dissertation being the boundedness properties of such compositions, the main result is the characterization of their Lp-boundedness on suitably regular domains. In case the aforementioned kernels are defined in the whole Euclidean space, their partial derivatives of prescribed order turn out to be so called standard kernels that arise in connection with singular integral operators. The Lp-boundedness of singular integrals is characterized by the T1 theorem, which is originally due to David and Journé and was published in 1984 (Ann. of Math. 120). The main result in the dissertation can be interpreted as a T1 theorem for weakly singular integral operators. The dissertation deals also with special convolution type weakly singular integral operators that are defined on Euclidean spaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this study is on statistical analysis of categorical responses, where the response values are dependent of each other. The most typical example of this kind of dependence is when repeated responses have been obtained from the same study unit. For example, in Paper I, the response of interest is the pneumococcal nasopharengyal carriage (yes/no) on 329 children. For each child, the carriage is measured nine times during the first 18 months of life, and thus repeated respones on each child cannot be assumed independent of each other. In the case of the above example, the interest typically lies in the carriage prevalence, and whether different risk factors affect the prevalence. Regression analysis is the established method for studying the effects of risk factors. In order to make correct inferences from the regression model, the associations between repeated responses need to be taken into account. The analysis of repeated categorical responses typically focus on regression modelling. However, further insights can also be gained by investigating the structure of the association. The central theme in this study is on the development of joint regression and association models. The analysis of repeated, or otherwise clustered, categorical responses is computationally difficult. Likelihood-based inference is often feasible only when the number of repeated responses for each study unit is small. In Paper IV, an algorithm is presented, which substantially facilitates maximum likelihood fitting, especially when the number of repeated responses increase. In addition, a notable result arising from this work is the freely available software for likelihood-based estimation of clustered categorical responses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In cardiac myocytes (heart muscle cells), coupling of electric signal known as the action potential to contraction of the heart depends crucially on calcium-induced calcium release (CICR) in a microdomain known as the dyad. During CICR, the peak number of free calcium ions (Ca) present in the dyad is small, typically estimated to be within range 1-100. Since the free Ca ions mediate CICR, noise in Ca signaling due to the small number of free calcium ions influences Excitation-Contraction (EC) coupling gain. Noise in Ca signaling is only one noise type influencing cardiac myocytes, e.g., ion channels playing a central role in action potential propagation are stochastic machines, each of which gates more or less randomly, which produces gating noise present in membrane currents. How various noise sources influence macroscopic properties of a myocyte, how noise is attenuated and taken advantage of are largely open questions. In this thesis, the impact of noise on CICR, EC coupling and, more generally, macroscopic properties of a cardiac myocyte is investigated at multiple levels of detail using mathematical models. Complementarily to the investigation of the impact of noise on CICR, computationally-efficient yet spatially-detailed models of CICR are developed. The results of this thesis show that (1) gating noise due to the high-activity mode of L-type calcium channels playing a major role in CICR may induce early after-depolarizations associated with polymorphic tachycardia, which is a frequent precursor to sudden cardiac death in heart failure patients; (2) an increased level of voltage noise typically increases action potential duration and it skews distribution of action potential durations toward long durations in cardiac myocytes; and that (3) while a small number of Ca ions mediate CICR, Excitation-Contraction coupling is robust against this noise source, partly due to the shape of ryanodine receptor protein structures present in the cardiac dyad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, XML has been widely adopted as a universal format for structured data. A variety of XML-based systems have emerged, most prominently SOAP for Web services, XMPP for instant messaging, and RSS and Atom for content syndication. This popularity is helped by the excellent support for XML processing in many programming languages and by the variety of XML-based technologies for more complex needs of applications. Concurrently with this rise of XML, there has also been a qualitative expansion of the Internet's scope. Namely, mobile devices are becoming capable enough to be full-fledged members of various distributed systems. Such devices are battery-powered, their network connections are based on wireless technologies, and their processing capabilities are typically much lower than those of stationary computers. This dissertation presents work performed to try to reconcile these two developments. XML as a highly redundant text-based format is not obviously suitable for mobile devices that need to avoid extraneous processing and communication. Furthermore, the protocols and systems commonly used in XML messaging are often designed for fixed networks and may make assumptions that do not hold in wireless environments. This work identifies four areas of improvement in XML messaging systems: the programming interfaces to the system itself and to XML processing, the serialization format used for the messages, and the protocol used to transmit the messages. We show a complete system that improves the overall performance of XML messaging through consideration of these areas. The work is centered on actually implementing the proposals in a form usable on real mobile devices. The experimentation is performed on actual devices and real networks using the messaging system implemented as a part of this work. The experimentation is extensive and, due to using several different devices, also provides a glimpse of what the performance of these systems may look like in the future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents methods for locating and analyzing cis-regulatory DNA elements involved with the regulation of gene expression in multicellular organisms. The regulation of gene expression is carried out by the combined effort of several transcription factor proteins collectively binding the DNA on the cis-regulatory elements. Only sparse knowledge of the 'genetic code' of these elements exists today. An automatic tool for discovery of putative cis-regulatory elements could help their experimental analysis, which would result in a more detailed view of the cis-regulatory element structure and function. We have developed a computational model for the evolutionary conservation of cis-regulatory elements. The elements are modeled as evolutionarily conserved clusters of sequence-specific transcription factor binding sites. We give an efficient dynamic programming algorithm that locates the putative cis-regulatory elements and scores them according to the conservation model. A notable proportion of the high-scoring DNA sequences show transcriptional enhancer activity in transgenic mouse embryos. The conservation model includes four parameters whose optimal values are estimated with simulated annealing. With good parameter values the model discriminates well between the DNA sequences with evolutionarily conserved cis-regulatory elements and the DNA sequences that have evolved neutrally. In further inquiry, the set of highest scoring putative cis-regulatory elements were found to be sensitive to small variations in the parameter values. The statistical significance of the putative cis-regulatory elements is estimated with the Two Component Extreme Value Distribution. The p-values grade the conservation of the cis-regulatory elements above the neutral expectation. The parameter values for the distribution are estimated by simulating the neutral DNA evolution. The conservation of the transcription factor binding sites can be used in the upstream analysis of regulatory interactions. This approach may provide mechanistic insight to the transcription level data from, e.g., microarray experiments. Here we give a method to predict shared transcriptional regulators for a set of co-expressed genes. The EEL (Enhancer Element Locator) software implements the method for locating putative cis-regulatory elements. The software facilitates both interactive use and distributed batch processing. We have used it to analyze the non-coding regions around all human genes with respect to the orthologous regions in various other species including mouse. The data from these genome-wide analyzes is stored in a relational database which is used in the publicly available web services for upstream analysis and visualization of the putative cis-regulatory elements in the human genome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In visual object detection and recognition, classifiers have two interesting characteristics: accuracy and speed. Accuracy depends on the complexity of the image features and classifier decision surfaces. Speed depends on the hardware and the computational effort required to use the features and decision surfaces. When attempts to increase accuracy lead to increases in complexity and effort, it is necessary to ask how much are we willing to pay for increased accuracy. For example, if increased computational effort implies quickly diminishing returns in accuracy, then those designing inexpensive surveillance applications cannot aim for maximum accuracy at any cost. It becomes necessary to find trade-offs between accuracy and effort. We study efficient classification of images depicting real-world objects and scenes. Classification is efficient when a classifier can be controlled so that the desired trade-off between accuracy and effort (speed) is achieved and unnecessary computations are avoided on a per input basis. A framework is proposed for understanding and modeling efficient classification of images. Classification is modeled as a tree-like process. In designing the framework, it is important to recognize what is essential and to avoid structures that are narrow in applicability. Earlier frameworks are lacking in this regard. The overall contribution is two-fold. First, the framework is presented, subjected to experiments, and shown to be satisfactory. Second, certain unconventional approaches are experimented with. This allows the separation of the essential from the conventional. To determine if the framework is satisfactory, three categories of questions are identified: trade-off optimization, classifier tree organization, and rules for delegation and confidence modeling. Questions and problems related to each category are addressed and empirical results are presented. For example, related to trade-off optimization, we address the problem of computational bottlenecks that limit the range of trade-offs. We also ask if accuracy versus effort trade-offs can be controlled after training. For another example, regarding classifier tree organization, we first consider the task of organizing a tree in a problem-specific manner. We then ask if problem-specific organization is necessary.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cell transition data is obtained from a cellular phone that switches its current serving cell tower. The data consists of a sequence of transition events, which are pairs of cell identifiers and transition times. The focus of this thesis is applying data mining methods to such data, developing new algorithms, and extracting knowledge that will be a solid foundation on which to build location-aware applications. In addition to a thorough exploration of the features of the data, the tools and methods developed in this thesis provide solutions to three distinct research problems. First, we develop clustering algorithms that produce a reliable mapping between cell transitions and physical locations observed by users of mobile devices. The main clustering algorithm operates in online fashion, and we consider also a number of offline clustering methods for comparison. Second, we define the concept of significant locations, known as bases, and give an online algorithm for determining them. Finally, we consider the task of predicting the movement of the user, based on historical data. We develop a prediction algorithm that considers paths of movement in their entirety, instead of just the most recent movement history. All of the presented methods are evaluated with a significant body of real cell transition data, collected from about one hundred different individuals. The algorithms developed in this thesis are designed to be implemented on a mobile device, and require no extra hardware sensors or network infrastructure. By not relying on external services and keeping the user information as much as possible on the user s own personal device, we avoid privacy issues and let the users control the disclosure of their location information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The paradigm of computational vision hypothesizes that any visual function -- such as the recognition of your grandparent -- can be replicated by computational processing of the visual input. What are these computations that the brain performs? What should or could they be? Working on the latter question, this dissertation takes the statistical approach, where the suitable computations are attempted to be learned from the natural visual data itself. In particular, we empirically study the computational processing that emerges from the statistical properties of the visual world and the constraints and objectives specified for the learning process. This thesis consists of an introduction and 7 peer-reviewed publications, where the purpose of the introduction is to illustrate the area of study to a reader who is not familiar with computational vision research. In the scope of the introduction, we will briefly overview the primary challenges to visual processing, as well as recall some of the current opinions on visual processing in the early visual systems of animals. Next, we describe the methodology we have used in our research, and discuss the presented results. We have included some additional remarks, speculations and conclusions to this discussion that were not featured in the original publications. We present the following results in the publications of this thesis. First, we empirically demonstrate that luminance and contrast are strongly dependent in natural images, contradicting previous theories suggesting that luminance and contrast were processed separately in natural systems due to their independence in the visual data. Second, we show that simple cell -like receptive fields of the primary visual cortex can be learned in the nonlinear contrast domain by maximization of independence. Further, we provide first-time reports of the emergence of conjunctive (corner-detecting) and subtractive (opponent orientation) processing due to nonlinear projection pursuit with simple objective functions related to sparseness and response energy optimization. Then, we show that attempting to extract independent components of nonlinear histogram statistics of a biologically plausible representation leads to projection directions that appear to differentiate between visual contexts. Such processing might be applicable for priming, \ie the selection and tuning of later visual processing. We continue by showing that a different kind of thresholded low-frequency priming can be learned and used to make object detection faster with little loss in accuracy. Finally, we show that in a computational object detection setting, nonlinearly gain-controlled visual features of medium complexity can be acquired sequentially as images are encountered and discarded. We present two online algorithms to perform this feature selection, and propose the idea that for artificial systems, some processing mechanisms could be selectable from the environment without optimizing the mechanisms themselves. In summary, this thesis explores learning visual processing on several levels. The learning can be understood as interplay of input data, model structures, learning objectives, and estimation algorithms. The presented work adds to the growing body of evidence showing that statistical methods can be used to acquire intuitively meaningful visual processing mechanisms. The work also presents some predictions and ideas regarding biological visual processing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tässä työssä tutkitaan, miten vaatimusmäärittelydokumenttiin kirjatut vaatimukset kiinnittävät myöhemmissä ohjelmistokehitysprosessin vaiheissa tehtäviä käyttöliittymäratkaisuja. Lisäksi tutkitaan, jääkö käyttöliittymästä puuttumaan todellisissa käyttötilanteissa tarvittavia toimintoja, kun vaatimusmäärittely toteutetaan perinteisen vesiputousmallin mukaisesti. Tutkimuksessa tarkastellaan kahden Helsingin yliopiston ohjelmistotuotantoprojekti-kurssilla toteutetun opiskelijaprojektin tuotoksia. Tutkimuksessa selvitetään oppilaiden tuottamien käyttöliittymien keskeisimmät käyttöliittymäongelmat simulointitestaamalla käyttöliittymät. Testauksessa simuloitiin ohjelmiston kolme keskeisintä käyttötilannetta, jotka selvitettiin tekemällä kontekstuaalinen käyttäjähaastattelu yhdelle opettajatuutorille. Tämän jälkeen etsittiin, löytyvätkö ongelmien syyt ryhmien vaatimusmäärittelydokumentteihin kirjatuista käyttötapauskuvauksista tai muista vaatimuksista. Tämän työn keskeisimpinä tuloksina selvisi, että käyttötapaukset sitoivat aina toiminnon ja sen toteutuksen käyttöliittymässä, mutta vain pieni osa niistä kiinnitti käyttöliittymäratkaisuja haitallisesti. Vakavien tehokkuusongelmien ja järjestelmästä puuttuvan toiminnallisuuden syyt kuitenkin olivat nimenomaan vaatimusmäärittelydokumentin käyttötapauksissa. Muut vaatimukset kiinnittivät toimintoja niin korkealla tasolla, ettei niistä muodostunut ongelmallisia käyttöliittymäratkaisuja. Lisäksi havaittiin, että molemmista vaatimusmäärittelyistä oli jäänyt pois sellaisia toimintoja, joita oltaisiin tarvittu käyttötilanteen suorittamiseen tehokkaasti. Vaikuttaisi siltä, että vaatimusmäärittelyvaiheessa ei ole saatu selville käyttäjän todellisia käyttötilanteita, minkä seurauksena vaatimuksista on jäänyt pois oleellisia toimintoja.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scrum-prosessimalli jättää menettelyt ohjelmiston käyttöliittymän tuottamiseen auki ja käyttöliittymä syntyy pahimmillaan toimintolistan pohjalta ohjelmoinnin sivutuotteena. Näin syntynyt järjestelmä soveltuu suurella riskillä huonosti käyttötarkoitukseensa. Tässä tutkielmassa analysoitiin Scrum-prosessimallin käyttöliittymäriskikohtia, joita löytyi kolme: asiakkaan toivomat ominaisuudet päätyvät sellaisinaan ohjelmiston vaatimuksiksi, toimintolistan pohjalta syntyy käytettävyydeltään heikkoja käyttöliittymäratkaisuja ja käyttöliittymän arviointi sprintin katselmoinnissa tuottaa epäluotettavia tuloksia. Tutkielmassa käsitellään Scrum-prosessimallin käyttöliittymäriskien minimointia simulointipohjaisella GDD-käyttöliittymäsuunnittelulla. Riskien minimointia tarkastellaan esimerkkitapauksen avulla, jossa ohjelmistoyritys Reaktor toteutti ammattikorkeakoulun toiminnansuunnittelujärjestelmän vuosisuunnitteluosion. Esimerkkitapauksessa Scrumin käyttöliittymäriskit saatiin minimoitua selvittämällä loppukäyttäjien käyttötilanteet kontekstuaalisilla haastatteluilla, suunnittelemalla käyttöliittymä GDD-menetelmällä ja arvioimalla käyttöliittymää hyödyllisyysläpikäynneillä. Alkuperäisessä Scrumissa liiketoiminnallisesta kannattavuudesta vastaava tuotteen omistaja ja toteutustiimi ottavat vastuulleen myös käyttöliittymän toimintalogiikan. GDD:n myötä vastuu toimintalogiikasta siirretään käyttöliittymäsuunnittelijalle, jolloin Scrumin roolit muuttuvat. Tässä työssä käsitellään GDD-käyttöliittymäsuunnittelun tuomat muutokset Scrumin rooleihin ja käytäntöihin. Scrumin käyttöliittymäriskien minimoinnin jälkeen toteutusvaiheeseen jää vielä Scrumista riippumattomia käyttöliittymäriskejä. Tämän työn esimerkkitapauksessa keskeisin näistä oli käyttöliittymätoteutukseen päätyneet puutteelliset interaktiot. Riski eliminoitiin hyväksymismenettelyllä, jossa ohjelmoija antaa toteutetun ominaisuuden käyttöliittymäsuunnittelijalle tarkistettavaksi. Hyväksymismenettelyn avulla projektin työnjako selkiytyi, toteutustyön laatu parani ja toteutustiimin ja käyttöliittymäsuunnittelijoiden välinen kommunikaatio tehostui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tässä työssä arvioidaan kenttätutkimusaineiston hyödyntämisen etuja käyttöliittymäsuunnittelussa. Tulokset perustuvat kahden samasta ohjelmasta eri tavalla suunnitellun käyttöliittymän arviointiin. Käytettävissä on aikaisemmin suunniteltu käyttöliittymä ja tässä työssä suunniteltava uusi käyttöliittymä, jonka suunnittelussa hyödynnetään kenttätutkimuksesta saatua aineistoa. Aluksi tässä työssä käydään läpi kenttätutkimuksen perusteet, tehdään suunnitelma kenttätutkimuksesta ja käydään tekemässä käyttäjien työtiloissa kenttätutkimusta kontekstuaalisen haastattelun menetelmän mukaisesti. Seuraavaksi käydään läpi käyttöliittymäsuunnittelun teoriaa, esitellään tässä työssä käytettävä GDDsuunnittelumenetelmä ja tehdään sen tarvitsemat tavoitepohjaiset käyttötapaukset kenttätutkimusaineiston pohjalta. Tämän jälkeen simuloidaan uusi käyttöliittymä käyttäen ainoastaan kenttätutkimuksesta saatua aineistoa. Lopuksi simuloitua ja aiemmin suunniteltua käyttöliittymää arvioidaan oikeilla käyttäjillä läpikäyntipalavereissa ja analysoidaan tulokset. Tuloksissa osoitetaan miten todellisten käyttötilanteiden simulointi tuottaa erilaisia käyttöliittymäratkaisuja verrattuna toimintojen toteuttamiseen. Käyttöliittymäratkaisujen ongelmien pohjalta todetaan, että on hyvin tärkeää ymmärtää käyttäjien todellinen työprosessi. Pelkästään kaikkien tarpeellisten toimintojen toteuttaminen ei takaa hyvää käyttöliittymää. On tärkeää miten toiminnot ja tietosisältö on aseteltu käyttöliittymään. Simuloinnissa ne suunnitellaan käyttöliittymään käyttäjien työn kannalta paremmassa järjestyksessä. Tämä nopeuttaa käyttäjien työskentelyä ja parantaa opittavuutta, koska tietoa ja toiminnallisuutta ei tarvitse etsiä käyttöliittymästä. Tekstin lopussa arvioidaan tässä työssä käytettyjen menetelmien soveltamista käytäntöön käyttöliittymäsuunnitteluprosessiin käytetyn ajan ja läpikäyntipalaverien analyysin perusteella.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Työssä tutkitaan turvetuotannon luvallistamiskysymyksiä luonnonsuojelullisten ja luonnonvarojen käyttöä korostavien tavoitteiden kohtauspinnassa. Tutkielman metodiksi on valikoitunut avoin, keskustelukeskeinen lähestymistapa, joka osoittautui sopivan hyvin tieteellisen tutkimuksen välineeksi. Erityisiä oikeuslähdeopillisia kysymyksiä tarkastellaan tutkimuksessa vain niiltä osin kuin työn muut osat sitä vaativat. Siksi yksittäisiä oikeuslähdeopillisia kysymyksiä ei oteta esille tutkimuksessa kattavasti. Ensimmäisessä varsinaisessa tutkimusjaksossa keskistytään lainsäädäntöhistoriaan. Lainsäädäntöhistoriasta oli löydettävissä sekä luonnonsuojelua että luonnonvarojen käyttämistä tukevia argumentteja, joiden sisältö voidaan melkein suoraan siirtää nykyiseen keskusteluun. Ennen kuin työssä siirrytään varsinaiseen tuotannon luvallistamisen käsittelyyn, siinä luodaan lyhyt katsaus ympäristövaikutusten arviointimenettelyn asemaan. Menettelyllä ei ole laajaa käyttöä turveteollisuudessa. Turveteollisuuden luvallistamiskysymyksiä käsitellään tutkimuksessa kolmessa eri kokonaisuudessa. Ensimmäisessä näistä hahmotetaan luvallistamista alueellisena ja ajallisena kokonaisuutena. Hahmotustapa osoittautui käyttökelpoiseksi ja hyvin turveteollisuuden todellisia oikeudellisia ongelmakohtia vastaavaksi. Keskimmäisessä luvallistamiskysymyksiä tarkastelevista jaksoista keskitytään ajankohtaiseen ongelmaan ilmaston lämpenemisestä. Jaksossa tarkastellaan teoreettista mahdollisuutta huomioida lupamenettelyssä toiminnan vaikutukset ilmastonmuutokselle. Erityisesti tässä jaksossa painottuu tutkimuksen metodin soveltaminen, jonka avulla voidaan ratkaista suhtautuminen tuotannosta esitettyihin, jopa vastakohtaisiin luonnontieteellisiin väitteisiin. Tarkastelussa päädytään siihen, että yksi mahdollinen tulkinta voimassaolevan oikeuden sisällöstä on toiminnan ilmastovaikutusten huomioiminen ympäristölupaharkinnassa. Viimeisimmässä tuotannon luvallistamista käsittelevässä jaksossa tutkimuskohteena on joitain toiminnan osia, joille edellytetään vesilain mukaista lupaa. Tässä jaksossa tutkimuskohteen rajaaminen osoittautui erityisen tärkeäksi, koska vaihtoehtoja tutkimuskohteiksi oli tarjolla runsaasti. Tutkimusalueeseen kuuluvat luvallistamiskysymykset, jotka tulivat vahvimmin esille työn aluksi tehdyissä haastatteluissa. Rajaamalla tutkimuskohde tällä perusteella pysytellään mahdollisimman tiiviisti alkuperäisessä tutkimusasetelmassa. Työn lopuksi käsitellään luvallistamisen suhdetta kaavoitukseen, nimenomaan maakuntakaavoihin ja valtakunnallisiin alueidenkäyttötavoitteisiin, joilla pyritään sääntelemään tuotantoa. Lyhyen katsauksen perusteella päätelmänä on instrumenttien vähäinen tosiasiallinen merkitys.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ympäristönsuojeluoikeudellisessa sääntelyssä on sekä kansainvälisesti että kansallisesti viime vuosikymmeninä tavoiteltu lupajärjestelmien yhdentämistä. OECD:ssä esitettiin jäsenmaille suositus pilaantumiskontrollin lainsäädännölliseksi yhtenäistämiseksi vuonna 1991. Samaan aikaan EU:ssa alettiin valmistella ohjausvälinettä yhdennettyyn pilaantumisen ehkäisemisen ja vähentämisen sääntelyyn, IPPC- eli YPEV-direktiiviä (96/61/EY). Suomessa direktiivi saatettiin voimaan ympäristönsuojelulainsäädännön uudistuksen yhteydessä ympäristönsuojelulailla (86/2000, YSL). Sittemmin maailmanyhteisön keskiöön yltänyttä, YK:n ilmastopuitesopimukseen ja edelleen Kioton pöytäkirjaan pohjaavaa kasvihuonekaasupäästöjen vähentämistä säännellään EU:ssa erillisellä päästökauppadirektiivillä (2003/87/EY). Direktiivi on Suomessa implementoitu päästökauppalailla (683/2004, PKL). Mainitut direktiivit sisältävät kumpikin lupajärjestelmän: YPEV-direktiivi ympäristölupajärjestelmän ja päästökauppadirektiivi kasvihuonekaasujen päästölupajärjestelmän. Näiden synergistä koordinointia tai sovittamista toisiinsa painotetaan toistuvasti päästökauppadirektiivin valmisteluasiakirjoissa. Päästökauppadirektiivin 8 artiklassa säädetään lupajärjestelmien koordinoinnin ja samalla tämän työn kysymyksenasettelun kannalta keskeisesti direktiiveihin pohjaavien lupien keskinäisestä sovittamisesta. Ympäristölupasäännöstö ja kasvihuonekaasujen päästölupasäännöstö (päästöoikeussäännöstö) ilmentävät kuitenkin kahta perustaltaan erilaista päästökontrollin ohjausvälinettä. Ympäristölupajärjestelmä on osa perinteistä hallinnollista sääntelyjärjestelmää, jossa yksittäisillä laitoskohtaisilla lupapäätöksillä ja niihin sisältyvillä lupamääräyksillä ohjataan toimintojen ympäristöllisiä vaikutuksia. Päästöoikeussäännöstö puolestaan rakentuu uudemman, markkinapohjaisiin mekanismeihin pohjaavan sääntelyn varaan. Päästöoikeuslupa nähdään valvonnallisena ja informatiivisena hallinnollis-teknisenä lupana, joka ei itsessään sisällä päästörajoituksia, vaan edulliset ympäristövaikutukset välittyvät päästökauppajärjestelmässä säännellyn päästöoikeuksien kokonaismäärän kautta. Ympäristölupa ja kasvihuonekaasujen päästölupa ovat siten oikeudelliselta luonteeltaan varsin eriäviä. Tässä työssä on selvitetty oikeudellisen integroinnin näkökulmasta, miten mainittujen kahden lupajärjestelmän yhdentäminen ilmenee tai miten sen mahdollisesti tulisi ilmetä yhtäältä säädössystematiikassa ja toisaalta hallintotyön organisoinnissa. Eräänlaisena hypoteettisena lähtökohtana työssä on ollut integroinnin edullisuus, joka taas heijastuu integroidun päästösääntelyn ympäristön ja sen elementtien kokonaisuuden painotuksessa. Tutkimuskysymystä on käsitelty lainopillisesti ja oikeusvertailevasti, lisäksi on haastateltu ympäristö- ja päästökauppaviranomaisen edustajaa sekä toiminnanharjoittajatahon edustajaa. Kummankin lupajärjestelmän kansainvälistä, yhteisöoikeudellista ja kansallista säädöspohjaa on tarkasteltu. YSL:n ja PKL:n keskeisiä käsitteitä on analysoitu säädösten soveltamisalojen leikkauskohtien selvittämiseksi. Oikeusvertailevassa osuudessa on tutkittu Ruotsin, Saksan ja Alankomaiden ympäristölupa- ja päästökauppalainsäädäntöä. Vertailtavat maat on valittu siten, että käytetyt implementointiratkaisut edustavat tutkimuskysymyksen kannalta erilaisia vaihtoehtoja. Työn tulosten perusteella voidaan todeta, että lupajärjestelmien menettelyllinen integrointi on mahdollista. Käsiteanalyysissä ei tullut esille seikkoja, jotka estäisivät säännöstöjen yhdentämistä merkittävien soveltamisalaeroavaisuuksien takia, joskin katvealueitakin esiintyy. Tarkastelluista käsitteistä esimerkiksi toiminnanharjoittajan käsite oli likipitäen identtinen kummassakin normistossa, päästön käsite puolestaan määrittää molempia säännöstöjä, mutta sisällöllisesti kuitenkin eroavasti. Toimialakohtaisia eroavaisuuksia sitä vastoin tuli esiin; näihin on tosin vireillä muutoksia sekä yhteisössä että Suomessa. YPEV-säännöstössä niin keskeinen pilaantumisen käsite puuttuu päästökauppanormistosta. Asiantuntijahaastatteluista kävi ilmi, että kaikki tahot pitivät nykyisiä lupajärjestelmiä toimivina; tilanne voi muuttua jos päästökauppajärjestelmä tulevaisuudessa kattaa muita kasvihuonekaasuja. Vertailevan aineiston perusteella havaittiin, että Saksassa lupajärjestelmät on yhdennetty, kun taas Ruotsin eriytetty päästökauppalainsäädäntö vastaa jokseenkin kotimaista. Alankomaiden ratkaisu poikkeaa edellisistä siinä, että kasvihuonekaasujen päästökauppajärjestelmä on yhdistetty jo ennestään säänneltyyn typen oksidien kauppaan. Hollannissa näyttäisi lisäksi olevan valmisteilla mittava lupajärjestelmien uudistaminen, yhdentävään suuntaan. Lupajärjestelmät ovat siis menettelyllisesti yhdennettävissä, mutta aineelliseen integrointiin sen sijaan tarvittaisiin kokonaan uusi lupainstrumentti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tapaukset, joissa tekijänoikeus on joutunut ristiriitaan kilpailuoikeuden tavoitteiden kanssa ovat yleistyneet niin Euroopan Unionin kuin sen jäsenvaltioiden oikeuskäytännössä. Tähän on syynä paitsi kilpailuoikeuden soveltamisalueen laajeneminen, myös viestinnän kehitys. Kilpailuoikeus on saanut roolin tiedon kulun vapauden puolustajana. Tekijöitä edustavien järjestöjen toiminta on 1990-luvulla ollut kilpailuviranomaisten erityisen kiinnostuksen kohteena. Työn keskeinen kysymys on, mitä kilpailuoikeuden soveltaminen järjestöjen toimintaan merkitsee tekijän suojan kannalta. Kilpailuoikeudellisessa tulkinnassa olennaista on, miten järjestön suhde yksittäiseen tekijään hahmotetaan, Horisontaalisessa suhteessa järjestöt voidaan rinnastaa tekijöiden ammattiliittoihin, joiden tarkoituksena on oikeuksien kollektiivinen suojaaminen suhteessa käyttäjiin. Kilpailuvirasto on tulkinnut järjestöjen toiminnan KRL 6§:n kieltämäksi hintayhteistyöksi. Kilpailuneuvosto on sen sijaan katsonut, että järjestöjen suhde yksittäiseen oikeudenhaltijaan on vertikaalinen. Tekijänoikeusjärjestöt ovat itsenäisiä elinkeinonharjoittajia, jotka ovat KRL 3§:n määräävässä markkinaasemassa. Samalla kilpailuneuvosto totesi, että tekijänoikeuslain tavoite ja tarkoitus on otettava huomioon järjestöjen toimintaa arvioitaessa. Tekijöitä edustavien ammattijärjestöjen ja viestintäyritysten välisiin työehtosopimuksiin on sisällytetty oikeuksien käyttöä koskevia määräyksiä. KRL 2. 1 § sulkee työmarkkinoita koskevat sopimukset lain soveltamisalueen ulkopuolelle. KHO on tuoreessa ratkaisussaan kuitenkin tulkinnut työehtosopimusmääräykset sellaiseksi vertikaaliseksi kilpailunrajoitukseksi, johon voidaan soveltaa KRL 9§:n yleissäännöstä. Ratkaisu merkinnee sitä, että KRL:n vaikutus ulottuu aiempaa selkeämmin myös työehtosopimusten tekijänoikeusmääräyksiin. Vertikaalinen näkökulma ohjaa arvioimaan järjestöjen toimintaa teosten leviämisen ja viestinnän kannalta. Yrityksen hallussa tekijänoikeus on kilpailukeino. Järjestöt ovat määräävässä markkina-asemassa suhteessa käyttäjiin ja tekijöihin. Kansallisen ja EY:n oikeuskäytännön valossa käydään läpi tapauksia, joissa järjestöjen on katsottu käyttäneen väärin asemaansa. Yhteisön oikeuskäytännön avulla pyritään hahmottamaan sellaisia tilanteita, joita Suomessa ei vielä ole ehtinyt esiintyä. Tietoverkkostrategiat ja pyrkimykset "informaation valtateiden" luomiseen korostavat osaltaan järjestöjen välittäjäroolia. Samalla digitaalitekniikan käyttöönotto horjuttaa vakiintunutta oikeuksien tasapainoa. Koska digitalisoituminen luo mahdollisuuksia nimenomaan yksittäisille tekijöille ja käyttäjille, on järjestöjen uudistettava lisensointi- ja sopimuskäytäntöjään. Myös julkisen vallan sääntelyä, joka koskee oikeuksien jakautumista tekijöiden, välittäjien ja loppukäyttäjien välillä on arvioitavauudesta näkökulmasta. Digitaalisessa ympäristössä järjestöjen toimintaa ja tekijän yksinoikeuden rajoituksia on entistä vaikeampi perustella markkinoiden toimintaan liittyvillä syillä. Avainsanat: Tekijänoikeusjärjestö, kilpailuoikeus, kollektiivinen sopiminen, digitalisoituminen