931 resultados para many-objective problems
Resumo:
GMP-säädösten mukaan aktiivisten lääkeaineiden, kriittisten lääkeaineintermediaattien ja lääkeapuaineiden valmistusprosessit pitää validoida. Validointityöhön kuuluu oleellisesti tuotantolaitteiden kvalifiointi ja prosessin validointi. Käytännössä tuotantolaitteiden kvalifiointi toteutetaan tekemällä laitteille suunnitelmien tarkastus (DQ), asennus- ja käyttöönottotarkastus (IQ), toiminnan testaus (OQ) sekä suorituskykytestit (PQ). Tuotantolaitteiden kvalifiointiin kuuluu myös laitteiden asianmukaisten kalibrointi-, kunnossapito- ja puhdistusohjeiden sekä työ- ja toimintaohjeiden (SOP:ien) laatiminen. Prosessin validoinnissa laaditaan dokumentoidut todisteet siitä, että prosessi toimii vakaasti ja tuotteelle asetetut vaatimukset täyttyvät johdonmukaisesti. GMP-tuotantolaitteiden kvalifiointiin ja lääkevalmistusprosessin validointiin on laadittu erilaisia GMP-säädöksiä noudattavia yleisiä validointiohjeita, kuten PIC/S:n ja FDA:n ohjeet kvalifioinnista ja validoinnista. IVT/SC on laatinut yksiselitteiset validointistandardit validointityön selventämiseksi. Validoinnin tilastolliseen tarkasteluun on käytettävissä GHTF:n laatimat tilastolliset validointimenetelmät. Yleensä tuotantolaitteiden kvalifiointi ja prosessin validointi tehdään ennen lääkevalmisteen kaupallisen tuotannon aloittamista. Kvalifiointi- ja validointityö voidaan tehdä kuitenkin myös tuotannon yhteydessä (konkurrentisti) tai retrospektiivisesti käyttäen hyväksi valmistettujen tuotantoerien prosessitietoja. Tässä työssä laadittiin Kemira Fine Chemicals Oy:n Kokkolan GMP-tuotantolinjan lääkeaineintermediaattiprosessin validoinnin yleissuunnitelma (VMP), joka sisältää sekä tuotantolaitteiden kvalifiointisuunnitelman että prosessin validointisuunnitelman. Suunnitelmissa huomioitiin tuotantolaitteiden aikaisempi käyttö muuhun hienokemikaalituotantoon ja tuotantolinjan muuttaminen GMP-vaatimusten mukaiseksi. Työhön kuului myös tuotantolaitteiden kvalifiointityön tekeminen laaditun suunnitelman mukaisesti.
Resumo:
In modem hitec industry Advanced Planning and Scheduling (APS) systems provide the basis for e-business solutions towards the suppliers and the customers. One objective of this thesis was to clarify the modem supply chain management with the APS systems and especially concentrate on the area of Collaborative Planning. In order Advanced Planning and Scheduling systems to be complete and usable, user interfaces are needed. Current Visual Basic user interfaces have faced many complaints and arguments from the users as well as from the development team. This thesis is trying to analyze the reasons and causes for the encountered problems and also provide ways to overcome them. The decision has been made to build the new user interfaces to be Web-enabled. Therefore another objective of this thesis was to research and find suitable technologies for building the Web-based user interfaces for Advanced Planning and Scheduling Systems in Nokia Demand/Supply Planning business area. Comparison between the most suitable technologies is made. Usability issues of Web-enabled user interfaces are also covered. The empirical part of the thesis includes design and implementation of a Web-based user interface with the chosen technology for a particular APS module that enables Collaborative Planning with suppliers.
Resumo:
Työn tavoitteena oli yritysjohdon käyttämän sisäisen raportin kehittäminen vastaamaan paremmin johdon tarpeita. Teoriaosuuden tarkoituksena oli selvittää kirjallisuuden avulla sisäisen raportin käyttöä johdon työkaluna, hyvän raportin vaatimuksia ja yleisiä raportoinnin periaatteita. Empiirinen osuus toteutettiin haastatteluiden avulla ja analysoimalla case-yrityksen sisäisiä raportteja. Empiirisen osan tavoitteena oli selvittää aiemman raportin ongelmat, löytää ratkaisut näihin ongelmiin ja laatia uusi raportointimalli, joka palvelee paremmin raportin käyttäjiä.Teoriaosuuden perusteella voidaan päätellä, että raportoinnin kehittämiseen vaikuttaa eniten raportin käyttötarkoitus ja henkilöt, joiden työväline raportti tulee olemaan. Raportin kehittäminen on jatkuva prosessi, sillä raportin tulee mukautua liiketoiminta- ja organisaatiomuutoksiin.Työn empiirisessä osassa esitetty uusi raportointimalli palvelee case-yritystä monella eri tasolla. Se tukee johdon työskentelyä ja tarjoaa yritystasolla välineen kustannusten parempaan hallintaan ja seurantaan.
Resumo:
Työn päätavoitteena oli kehittää Oy Metsä-Botnia Ab:n Rauman tehtaan tilastollista laadunhallintatoimintaa ratkaisemalla toimintatapoihin ja DNA SPC -sovelluksen syy-seurauskaavion sisältöön liittyvät ongelmat. Ensimmäinen osatavoite oli erityissyiden tilaston keräysmenetelmänä ja ongelmanratkaisun apuvälineenä käytetyn syy-seurauskaavion sisällön kehittäminen ja sen päivityksen toimintamallien luominen. Toisena osatavoitteena oli aluevastaavien SPC-viikkoraportoinnin kehittäminen ja kolmantena SPC-toiminnan aikaansaaman tehtaan suorituskykymuutoksen määrittäminen. Työn kirjallisuusosassa esiteltiin prosessien kehittämiselle tärkeät työkalut sekä tilastollisen ajattelun ja SPC:n perusperiaatteet. Kirjallisuusosassa tarkasteltiin myös SPC:n käyttöä hankaloittavia selluteollisuuden erityispiirteitä. Työssä kehitettiin syy-seurauskaaviota entistä helppokäyttöisemmäksi vaihtamalla yleisten pääluokkien tilalle ohjauskortteja vastaavat pääluokat. Syy-seurauskaavion päivitykselle ja SPC-viikkoraportoinnille luotiin tehokkaat toimintamallit. SPC-viikkoraportoinnin toimintamallin pitäisi muun muassa parantaa tiedonkulkua tehtaalla. Työssä tehtyjen tilastollisten testien mukaan Rauman tehtaan suorituskyky oli useiden mittareiden osalta parantunut SPC-toiminnan myötä. Muutaman mittarin osalta Rauman tehtaan suorituskyky oli heikentynyt SPC-toiminnan aloittamisen jälkeen.
Resumo:
Tämän tutkimuksen keskeisenä tarkoituksena on tutkia Etelä-karjalaa asuin- ja työpaikkana. Tutkimuksen päätavoitteena on selvittää asuin- ja elinympäristön laadun merkitystä alueella viihtymiseen. Tutkimus luokitellaan kaupunkitutkimukseksi, jossa tarkastelun kohteena on asuin- ja elinympäristön laatu. Tutkimuksessa hyödynnetään survey-tutkimusmenetelmää. Tutkimuksen teoriaoosassa tarkastellaan globalisaation alueellisia vaikutuksia, alueiden kilpailukyvyn ja kilpailuedun muodostumista sekä alueen imagon merkitystä kilpailussa. Tutkimukseen liittyvä tutkimusaineisto kerättiin kirjekyselyllä Lappeenrannan teknillisestä yliopistosta vuosina 1997-2000 valmistuneiden diblomi-insinöörien ja kauppatieteiden maistereiden keskuudesta. Tutkimuksen empiirisessä osassa mitataan tekijöitä, jotka vaikuttavat asuinpaikkakunnan valintaan. Lisäksi mitataan Etelä-Karjalan asuin- ja elinympäristön laatua. Aineiston perusteella voidaan todeta, että Etelä-Karjalan asuin- ja elinympäristön laadun fyysiset, toiminnalliset ja sosiaaliset ominaisuudet edesaauttavat yliopistoststa valmistuneita jäämään alueelle. Ongelmatekijäksi nousi alueen kyky tarjota korkeasti koulutetuille nuorille työpaikkoja
Resumo:
Tutkielman tavoitteena on kuvata ja analysoida valmisteilla olevan pankkien vakavaraisuuskehikon uudistuksen eri osa-alueita erityisesti markkinakurin edellytysten parantamisen kannalta keskittyen julkistamisvaatimuksiin. Lisäksi tutkielmassa arvioidaan koko uudistuksen pankille ja sen eri intressiryhmille aiheuttamia seurauksia, uudistuksen hyviä ja huonoja puolia sekä mahdollisia ongelmakohtia. Tutkielma perustuu Baselin pankkivalvontakomitean ja Euroopan komission toisiin ehdotuksiin vakavaraisuuskehikon uudistamiseksi. Lisää perspektiiviä antavat aiheesta kirjoitetut artikkelit ja julkaisut sekä haastattelut. Pankkien vakavaraisuuskehikon uudistus muodostuu kolmesta toisiaan täydentävästä niin kutsutusta pilarista, jotka ovat 1) vähimmäisvakavaraisuuden laskentatapa, 2) valvontaprosessin vahvistaminen ja 3) markkinakurin edellytysten parantaminen. Uudistus on vielä kesken ja sen sisältö muuttuu jatkuvasti eri tahojen kantojen kirkastuessa. Varsinaisten johtopäätösten teko on siis vielä liian aikaista, mutta jo nyt on selvää, että kyseessä on laaja ja merkittävä uudistus. Se muun muassa mahdollistaa sisäisten riskiluokitusten käytön ja kannustaa pankkeja tehokkaampaan riskien hallintaan sekä moninkertaistaa julkistettavan tiedon määrän nykyiseen säännöstöön verrattuna. Uudistuksen suuntalinjoista vallitsee kansainvälinen yhteisymmärrys, mutta monia ongelmia on vielä ratkaistava. Sen vuoksi laatijatahot ovat päättäneet antaa vielä kolmannen ehdotuksen ennen lopullista päätöstä. Suurimpia huolenaiheita ovat tällä hetkellä yhdenmukainen kansainvälinen täytäntöönpano ja säännösten tasapuolinen noudattaminen. Myös kehikon yksityiskohtaisuus arveluttaa monia.
Resumo:
Tutkielman tavoitteena on tarkastella letkuventtiilien tilaus-toimitusketjua ja selvittää, kuinka se muodostuu. Tavoitteena on laatia selvitys yrityksen tilaus-toimitusketjun muodostumisen vaiheista yrityksen sisäiseen käyttöön ja tutkia, kuinka ketjua voitaisiin parantaa, jotta tulevaisuudessa asiakkaita voitaisiin palvella paremmin ja joustavammin. Tutkimusongelmaa lähestytään prosessiajattelun näkökulmasta ja tutkielmassa käytetään kvalitatiivista tutkimusmenetelmää, jonka pääasiallisena tiedonkeruuvälineenä on vapaamuotoiset haastattelut, yrityksen dokumenttien tutkiminen ja analysointi sekä yrityksen toiminnan havainnointi. Tilaus-toimitusketjun parantaminen edellyttää yritykseltä ja sen edustajilta asiakkaiden ostokäyttäytymisen ohjaamista, tiedon avointa ja oikea-aikaista jakamista kaikille sitä tarvitseville sekä kulttuurierojen huomioon ottamista. Erityisesti tilaus-toimitusketjun alkuvaiheisiin tulisi panostaa tulevaisuudessa, sillä monet ongelmat syntyvät tutkimuksen mukaan toimitusketjun alkupuolella.
Resumo:
Työn tavoitteet Tutkimuksen tavoitteena oli selvittää strategisten allianssien rakentamiseen, johtamiseen ja hallinnointiin liittyviä ongelmia sekä toteutusmalleja. Tarkoituksena oli laatia case -yritykselle toimintaehdotus teorian ja tutkijan muodostaman näkemyksen pohjalta. Tutkimusmetodologia ja -menetelmät Tutkimusote on konstruktiivinen, vaikkakin se sisältää vahvasti käsiteanalyyttisiä piirteitä. Toimeksiantajana tutkimukselle oli Neste Markkinointi Oy, jonka kahden kumppanin kanssa muodostamia alliansseja tarkasteltiin erillisinä. Tutkimuksen empiirinen osa perustui teemahaastatteluihin. Tulokset ja päätelmät Strategisten allianssien muodostaminen vaatii yrityksiltä paljon työtä. Tutkimuksen tuloksena yritykselle esitettiin näkemys toiminnasta tulevaisuudessa sillä jo olevien kumppaneiden kanssa. Tehdyt havainnot liittyivät pääosin yhteistyön todelliseen aloittamiseen. Empiirinen osa vahvisti teoriassa muodostunutta näkemystä kumppanuuden rakentamisen vaikeudesta ja todellisen yhteistyön problematiikasta. Yleisesti teorian ja tutkimuksen pohjalta voidaan todeta strategisten allianssien olevan yksi mahdollinen avain yrityksen ylivoimaiseen kilpailukykyyn.
Resumo:
The master’s thesis focuses on the ERP system of a project company that delivers large-scale industrial plants from a purchasing point of view. The point of time is couple of years after implementation. Opinion of the people working in purchasing is that the ERP system isn’t performing satisfyingly. The first objective for the thesis is to find out the causes of the problems based on theory. It’s possible the system may not be suitable for project business or there may be deficiencies in the system that cause the problems. The second objective for the thesis is to propose solutions to the observed problems based on theory and vision how the system should function. The outcome of the thesis was that the main causes for the problems were connected to the ways of using the system and engineering activities being left outside the scope of ERP. The processes connected to the ERP system are not documented, so the rules for using the system are missing. The thesis describes developing and influences to the organization of a function that enables uploading purchase requisitions to projects from a text file. It was discovered that the function solves many problems and enables other functions that enhance further ambitions to integrate even more of the company’s processes to the ERP system. Conclusion to the thesis is a vision how the system should function and development activities needed to achieve this vision.
Resumo:
Substances emitted into the atmosphere by human activities in urban and industrial areas cause environmental problems such as air quality degradation, respiratory diseases, climate change, global warming, and stratospheric ozone depletion. Volatile organic compounds (VOCs) are major air pollutants, emitted largely by industry, transportation and households. Many VOCs are toxic, and some are considered to be carcinogenic, mutagenic, or teratogenic. A wide spectrum of VOCs is readily oxidized photocatalytically. Photocatalytic oxidation (PCO) over titanium dioxide may present a potential alternative to air treatment strategies currently in use, such as adsorption and thermal treatment, due to its advantageous activity under ambient conditions, although higher but still mild temperatures may also be applied. The objective of the present research was to disclose routes of chemical reactions, estimate the kinetics and the sensitivity of gas-phase PCO to reaction conditions in respect of air pollutants containing heteroatoms in their molecules. Deactivation of the photocatalyst and restoration of its activity was also taken under consideration to assess the practical possibility of the application of PCO to the treatment of air polluted with VOCs. UV-irradiated titanium dioxide was selected as a photocatalyst for its chemical inertness, non-toxic character and low cost. In the present work Degussa P25 TiO2 photocatalyst was mostly used. In transient studies platinized TiO2 was also studied. The experimental research into PCO of following VOCs was undertaken: - methyl tert-butyl ether (MTBE) as the basic oxygenated motor fuel additive and, thus, a major non-biodegradable pollutant of groundwater; - tert-butyl alcohol (TBA) as the primary product of MTBE hydrolysis and PCO; - ethyl mercaptan (ethanethiol) as one of the reduced sulphur pungent air pollutants in the pulp-and-paper industry; - methylamine (MA) and dimethylamine (DMA) as the amino compounds often emitted by various industries. The PCO of VOCs was studied using a continuous-flow mode. The PCO of MTBE and TBA was also studied by transient mode, in which carbon dioxide, water, and acetone were identified as the main gas-phase products. The volatile products of thermal catalytic oxidation (TCO) of MTBE included 2-methyl-1-propene (2-MP), carbon monoxide, carbon dioxide and water; TBA decomposed to 2-MP and water. Continuous PCO of 4 TBA proceeded faster in humid air than dry air. MTBE oxidation, however, was less sensitive to humidity. The TiO2 catalyst was stable during continuous PCO of MTBE and TBA above 373 K, but gradually lost activity below 373 K; the catalyst could be regenerated by UV irradiation in the absence of gas-phase VOCs. Sulphur dioxide, carbon monoxide, carbon dioxide and water were identified as ultimate products of PCO of ethanethiol. Acetic acid was identified as a photocatalytic oxidation by-product. The limits of ethanethiol concentration and temperature, at which the reactor performance was stable for indefinite time, were established. The apparent reaction kinetics appeared to be independent of the reaction temperature within the studied limits, 373 to 453 K. The catalyst was completely and irreversibly deactivated with ethanethiol TCO. Volatile PCO products of MA included ammonia, nitrogen dioxide, nitrous oxide, carbon dioxide and water. Formamide was observed among DMA PCO products together with others similar to the ones of MA. TCO for both substances resulted in the formation of ammonia, hydrogen cyanide, carbon monoxide, carbon dioxide and water. No deactivation of the photocatalyst during the multiple long-run experiments was observed at the concentrations and temperatures used in the study. PCO of MA was also studied in the aqueous phase. Maximum efficiency was achieved in an alkaline media, where MA exhibited high fugitivity. Two mechanisms of aqueous PCO – decomposition to formate and ammonia, and oxidation of organic nitrogen directly to nitrite - lead ultimately to carbon dioxide, water, ammonia and nitrate: formate and nitrite were observed as intermediates. A part of the ammonia formed in the reaction was oxidized to nitrite and nitrate. This finding helped in better understanding of the gasphase PCO pathways. The PCO kinetic data for VOCs fitted well to the monomolecular Langmuir- Hinshelwood (L-H) model, whereas TCO kinetic behaviour matched the first order process for volatile amines and the L-H model for others. It should be noted that both LH and the first order equations were only the data fit, not the real description of the reaction kinetics. The dependence of the kinetic constants on temperature was established in the form of an Arrhenius equation.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
Tutkielman tavoitteena on selvittää rakentamisen arvonlisäverotusta. Tutkimuksen päätavoite on selventää rakentamispalvelun myynnin, rakentamispalvelun omaan käyttöön ottamisen ja perustajaurakoinnin arvonlisäverotukseen liittyviä eroavaisuuksia ja ongelmia. Erityistä huomiota on kiinnitetty rakentamispalvelun oman käytön verotukseen. Tutkielman tutkimusmenetelmänä on ymmärtämiseen ja selittämään pyrkivä kvalitatiivinen tutkimusmenetelmä. Rakentamisen ja kiinteistöjen arvonlisäverotus on käytännössä osoittautunut haastavaksi ja ongelmalliseksi. Siihen liittyy lukuisia poikkeuksia ja erityissäännöksiä. Laki on joissain kohdin ristiriidassa arvonlisäverodirektiivien kanssa. Laki on paikoin vaikeasti ymmärrettävää. Tämän vuoksi lain tulkinnasta onkin olemassa lukuisia oikeuden päätöksiä. Rakennusliikkeet kohtaavat myös käytännön ongelmia laskentatavoissa, eritoten rakentamispalvelun omaan käyttöön ottamisessa. Huolimatta lukuisista oikeuspäätöksistä, moni lain kohta on edelleen vaikeasti tulkittavissa. Moneen käytännön ongelmaan tarvittaisiin selkeitä ohjeita esim. veroviranomaisilta.
Resumo:
This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.
Resumo:
Construction of multiple sequence alignments is a fundamental task in Bioinformatics. Multiple sequence alignments are used as a prerequisite in many Bioinformatics methods, and subsequently the quality of such methods can be critically dependent on the quality of the alignment. However, automatic construction of a multiple sequence alignment for a set of remotely related sequences does not always provide biologically relevant alignments.Therefore, there is a need for an objective approach for evaluating the quality of automatically aligned sequences. The profile hidden Markov model is a powerful approach in comparative genomics. In the profile hidden Markov model, the symbol probabilities are estimated at each conserved alignment position. This can increase the dimension of parameter space and cause an overfitting problem. These two research problems are both related to conservation. We have developed statistical measures for quantifying the conservation of multiple sequence alignments. Two types of methods are considered, those identifying conserved residues in an alignment position, and those calculating positional conservation scores. The positional conservation score was exploited in a statistical prediction model for assessing the quality of multiple sequence alignments. The residue conservation score was used as part of the emission probability estimation method proposed for profile hidden Markov models. The results of the predicted alignment quality score highly correlated with the correct alignment quality scores, indicating that our method is reliable for assessing the quality of any multiple sequence alignment. The comparison of the emission probability estimation method with the maximum likelihood method showed that the number of estimated parameters in the model was dramatically decreased, while the same level of accuracy was maintained. To conclude, we have shown that conservation can be successfully used in the statistical model for alignment quality assessment and in the estimation of emission probabilities in the profile hidden Markov models.
Resumo:
This dissertation analyses the growing pool of copyrighted works, which are offered to the public using Creative Commons licensing. The study consist of analysis of the novel licensing system, the licensors, and the changes of the "all rights reserved" —paradigm of copyright law. Copyright law reserves all rights to the creator until seventy years have passed since her demise. Many claim that this endangers communal interests. Quite often the creators are willing to release some rights. This, however, is very difficult to do and needs help of specialized lawyers. The study finds that the innovative Creative Commons licensing scheme is well suited for low value - high volume licensing. It helps to reduce transaction costs on several le¬vels. However, CC licensing is not a "silver bullet". Privacy, moral rights, the problems of license interpretation and license compatibility with other open licenses and collecting societies remain unsolved. The study consists of seven chapters. The first chapter introduces the research topic and research questions. The second and third chapters inspect the Creative Commons licensing scheme's technical, economic and legal aspects. The fourth and fifth chapters examine the incentives of the licensors who use open licenses and describe certain open business models. The sixth chapter studies the role of collecting societies and whether two institutions, Creative Commons and collecting societies can coexist. The final chapter summarizes the findings. The dissertation contributes to the existing literature in several ways. There is a wide range of prior research on open source licensing. However, there is an urgent need for an extensive study of the Creative Commons licensing and its actual and potential impact on the creative ecosystem.