999 resultados para Scenario Programming, Markup Languages, 3D Virtualworlds
Resumo:
Software plays an important role in our society and economy. Software development is an intricate process, and it comprises many different tasks: gathering requirements, designing new solutions that fulfill these requirements, as well as implementing these designs using a programming language into a working system. As a consequence, the development of high quality software is a core problem in software engineering. This thesis focuses on the validation of software designs. The issue of the analysis of designs is of great importance, since errors originating from designs may appear in the final system. It is considered economical to rectify the problems as early in the software development process as possible. Practitioners often create and visualize designs using modeling languages, one of the more popular being the Uni ed Modeling Language (UML). The analysis of the designs can be done manually, but in case of large systems, the need of mechanisms that automatically analyze these designs arises. In this thesis, we propose an automatic approach to analyze UML based designs using logic reasoners. This approach firstly proposes the translations of the UML based designs into a language understandable by reasoners in the form of logic facts, and secondly shows how to use the logic reasoners to infer the logical consequences of these logic facts. We have implemented the proposed translations in the form of a tool that can be used with any standard compliant UML modeling tool. Moreover, we authenticate the proposed approach by automatically validating hundreds of UML based designs that consist of thousands of model elements available in an online model repository. The proposed approach is limited in scope, but is fully automatic and does not require any expertise of logic languages from the user. We exemplify the proposed approach with two applications, which include the validation of domain specific languages and the validation of web service interfaces.
Resumo:
Maritime transport is the foundation for trade in the Baltic Sea area. It represents over 15% of the world’s cargo traffic and it is predicted to increase by over 100% in the future. There are currently over 2,000 ships sailing on the Baltic Sea and both the number and the size of ships have been growing in recent years. Due to the importance of maritime traffic in the Baltic Sea Region, ports have to be ready to face future challenges and adapt to the changing operational environment. The companies within the transportation industry – in this context ports, shipowners and logistics companies – compete continuously and although the number of companies in the business is not particularly substantial because the products offered are very similar, other motives for managing the supply chain arise. The factors creating competitive advantage are often financial and related to cost efficiency, but geographical location, road infrastructure in the hinterland and vessel connections are among the most important factors. The PENTA project focuses on adding openness, transparency and sharing knowledge and information, so that the challenges of the future can be better addressed with regard to cooperation. This report presents three scenario-based traffic forecasts for routes between the PENTA ports in 2020. The chosen methodology is PESTE, in which the focus in on economic factors affecting future traffic flows. The report further analyses the findings and results of the first PENTA WP2 report “Drivers of demand in cargo and passenger traffic between PENTA ports” and utilises the same material, which was obtained through interviews and mail surveys.
Resumo:
Jussi-Pekka Hakkaraisen esitys Ala-Saksin Valtiollisessa ja Yliopistollisessa kirjastossa Göttingenissä 28.5.2013
Resumo:
Jussi-Pekka Hakkaraisen esitys Viron kielen instituutissa (Eesti keele instituut) Tallinnassa 23.10.2013.
Resumo:
Työn tavoitteena oli kehittää kanavistojen ja kattilan eristyksien mallintamista 3D-laitossuunitteluohjelmassa sekä siitä saatavia materiaalilistoja. Kanavistojen eristeitä kuvastavaa geometriaa muokattiin vastaamaan eristyksen todellista tilanvarausta. Kattilan eristyksen mallintaminen on aikaisemmin jouduttu tekemään manuaalisesti, työssä kehitettiin työkalu, jonka avulla eristysten materiaalitiedot ja oikeat tilanvaraukset saadaan lisättyä 3D-malliin. Kaikkia eristyksen mallintamista ei kuitenkaan pystytä mielekkäästi toteuttamaan automaattisesti työkalujen avulla, näitä kohteita ovat tukikehikkorakenteet kuten kattilan vinttikehikko. Lisäksi täytyi selvittää, mitä tietoja eristyksien materiaalimäärälistoille vaaditaan, ja kuinka nämä tiedot saataisiin listoihin mukaan. Jotta kaikki eristettävät kohteet saadaan tuotettaviin materiaalilistoihin, on ohjelmaan lisättävä käytettäväksi uusia komponentteja. Näitä ovat uudet kanavistojen osat sekä muun muassa venturit ja huoltoluukut kanavistoille. Kattilaan asennettavat laitteet kuten näkölasit ja polttimet vaativat tukirakenteen, joka samalla toimii kotelona putkistojen taivutuksille. Näitä kohteita on aikaisemmin tuotu vanhoista projekteista tai ne on tehty suunnittelijan toimesta uusiksi. Työssä esitettiin uusi tapa mallintaa kattilan pinnat, jolloin niihin voidaan liittää koteloita erillisestä komponenttikirjastosta. Kanavistojen eristyksien materiaalimäärälistojen tuottaminen suoraan ohjelmasta auto-matisoitiin. Kattilan ja siihen liittyvien eristyskehysrakenteiden listojen tuotanto kuitenkin vaatii yhteisten toimintamallien kehittämistä. Tämän työn uudet menetelmät mahdollistavat yhä uusien työkalujen kehittämisen, esimerkiksi automaattisen eristysten teknisten piirustusten kuvatuotannon tulevaisuudessa.
Resumo:
With the shift towards many-core computer architectures, dataflow programming has been proposed as one potential solution for producing software that scales to a varying number of processor cores. Programming for parallel architectures is considered difficult as the current popular programming languages are inherently sequential and introducing parallelism is typically up to the programmer. Dataflow, however, is inherently parallel, describing an application as a directed graph, where nodes represent calculations and edges represent a data dependency in form of a queue. These queues are the only allowed communication between the nodes, making the dependencies between the nodes explicit and thereby also the parallelism. Once a node have the su cient inputs available, the node can, independently of any other node, perform calculations, consume inputs, and produce outputs. Data ow models have existed for several decades and have become popular for describing signal processing applications as the graph representation is a very natural representation within this eld. Digital lters are typically described with boxes and arrows also in textbooks. Data ow is also becoming more interesting in other domains, and in principle, any application working on an information stream ts the dataflow paradigm. Such applications are, among others, network protocols, cryptography, and multimedia applications. As an example, the MPEG group standardized a dataflow language called RVC-CAL to be use within reconfigurable video coding. Describing a video coder as a data ow network instead of with conventional programming languages, makes the coder more readable as it describes how the video dataflows through the different coding tools. While dataflow provides an intuitive representation for many applications, it also introduces some new problems that need to be solved in order for data ow to be more widely used. The explicit parallelism of a dataflow program is descriptive and enables an improved utilization of available processing units, however, the independent nodes also implies that some kind of scheduling is required. The need for efficient scheduling becomes even more evident when the number of nodes is larger than the number of processing units and several nodes are running concurrently on one processor core. There exist several data ow models of computation, with different trade-offs between expressiveness and analyzability. These vary from rather restricted but statically schedulable, with minimal scheduling overhead, to dynamic where each ring requires a ring rule to evaluated. The model used in this work, namely RVC-CAL, is a very expressive language, and in the general case it requires dynamic scheduling, however, the strong encapsulation of dataflow nodes enables analysis and the scheduling overhead can be reduced by using quasi-static, or piecewise static, scheduling techniques. The scheduling problem is concerned with nding the few scheduling decisions that must be run-time, while most decisions are pre-calculated. The result is then an, as small as possible, set of static schedules that are dynamically scheduled. To identify these dynamic decisions and to find the concrete schedules, this thesis shows how quasi-static scheduling can be represented as a model checking problem. This involves identifying the relevant information to generate a minimal but complete model to be used for model checking. The model must describe everything that may affect scheduling of the application while omitting everything else in order to avoid state space explosion. This kind of simplification is necessary to make the state space analysis feasible. For the model checker to nd the actual schedules, a set of scheduling strategies are de ned which are able to produce quasi-static schedulers for a wide range of applications. The results of this work show that actor composition with quasi-static scheduling can be used to transform data ow programs to t many different computer architecture with different type and number of cores. This in turn, enables dataflow to provide a more platform independent representation as one application can be fitted to a specific processor architecture without changing the actual program representation. Instead, the program representation is in the context of design space exploration optimized by the development tools to fit the target platform. This work focuses on representing the dataflow scheduling problem as a model checking problem and is implemented as part of a compiler infrastructure. The thesis also presents experimental results as evidence of the usefulness of the approach.
Resumo:
This article reports on the design and characteristics of substrate mimetics in protease-catalyzed reactions. Firstly, the basis of protease-catalyzed peptide synthesis and the general advantages of substrate mimetics over common acyl donor components are described. The binding behavior of these artificial substrates and the mechanism of catalysis are further discussed on the basis of hydrolysis, acyl transfer, protein-ligand docking, and molecular dynamics studies on the trypsin model. The general validity of the substrate mimetic concept is illustrated by the expansion of this strategy to trypsin-like, glutamic acid-specific, and hydrophobic amino acid-specific proteases. Finally, opportunities for the combination of the substrate mimetic strategy with the chemical solid-phase peptide synthesis and the use of substrate mimetics for non-peptide organic amide synthesis are presented.
Resumo:
Presentation at "Soome-ugri keelte andmebaasid ja e-leksikograafia" at Eesti Keele Instituut (Institution of Estonian Languages) in Tallnn on the 18th of November 2014.
Resumo:
Suurelle yleisölle lisäävä valmistustekniikka eli ns. 3D-tulostustekniikka näyttäytyy lehtien otsikoissa ja artikkeleissa esiin pulpahtavana ”muotiaiheena”, mutta sekä muovien 3D-tulostustekniikka että metallienkin vastaava valmistustekniikka on ollut olemassa maailmalla ja Suomessa 80-luvun puolivälistä alkaen. Yhdysvalloissa ja Saksassa tekniikkaa käytetään valmistavassa teollisuudessa toiminnallisten osien tuotannossa. Esimerkiksi lentokoneen suihkumoottorien osia ja lääketieteellisiä välineitä tehdään metallijauheesta lisäävän valmistuksen avulla. Itse asiassa eräs menetelmä metalliesineiden valmistamiseksi lasersäteen avulla keksittiin Suomessa ja sitä myös kehiteltiin täällä, mutta teollisuudenala lähti aikanaan nousuun Saksassa. Lisäävä valmistus on tällä hetkellä maailmanlaajuisesti eräs kiinnostavista tuotantotekniikoista, jonka uskotaan muuttavan monia asioita tuotteiden suunnittelussa, toiminnoissa ja valmistuksessa. Tämä tekniikka ei kiinnosta pelkästään valmistavaa teollisuutta, vaan tietotekniikan, lääketieteen, koruvalmistuksen ja muotoilun osaajat sekä uusien liiketoimintamallien kehittäjät ja logistiikka operaattorit ovat teknologiasta kiinnostuneita. Suomelle 3D-tulostustekniikka on suuri mahdollisuus, sillä maassamme on vahva teollinen tieto- ja viestintätekniikkaosaaminen sekä lisäksi olemme maassamme erikoistuneet varsin vaativien teollisiin laitteiden valmistukseen. Eräät suurimmista mahdollisuuksista tällä tekniikalla ovat toimitusketjuihin liittyvät muutokset. Uutta on, että pienetkin yritykset ja organisaatiot voivat soveltaa tätä tekniikkaa valmistuksessa ja jopa kehitellä täysin uusia tuotteita. On myös arvioitu, että lisäävän valmistuksen merkitys valmistustapoihin ja toimitusketjuihin voi olla suurempi kuin koskaan aikaisemmin minkään teknologisen uudistuksen kohdalla. Lisäävästä valmistuksesta usein puhutaankin kolmantena teollisena vallankumouksena juuri tämän takia. 3D-tulostuksen kustannuksia tarkasteltaessa on tärkeätä huomata että vain sulatetun jauheen määrä ratkaisee, ei käytettävän geometrian monimutkaisuus. Tämä erottaa perinteisen ja lisäävän valmistuksen toisistaan. Perinteisesti kappaleen keventäminen on maksanut ”ylimääräistä”, kun taas lisäävässä valmistuksessa kappaleen keveys on jopa kustannusta alentava tekijä. Valmistettavan kappaleen korkeus on yksi kriittisimpiä kustannuksiin vaikuttavia tekijöitä. Tämän vuoksi useamman kappaleen valmistus yhdellä kertaa parantaa kannattavuutta huomattavasti. Samalla kertaa voi ja itse asiassa kannattaakin valmistaa keskenään erilaisia kappaleita. Perinteiset valmistustavat sen sijaan ovat nykyajan vaatimuksille liian hitaita; ne joustavat huonosti, kun kyseessä on pienet, asiakaslähtöiset erät. Trendi on globaalisti kohden yksilöllisiä asiakaslähtöisiä tuotteita, jolloin myös valmistustekniikoiden on oltava joustavia pysyäkseen näiden vaatimusten perässä. Lisäävä valmistus sopii erityisesti hyvin piensarjatuotantoon. Suuremmissa valmistuserissä kuitenkin perinteiset tekniikat ovat kustannustehokkaampia.
Resumo:
Materiaalia lisäävä valmistus eli 3D-tulostus on valmistusmenetelmä, jossa kappale tehdään 3D-mallin pohjalta materiaalikerroksia lisäämällä, käyttäen useita tekniikoita ja materiaaleja. Menetelmää sovelletaan useilla teollisuuden aloilla. Lisääviä valmistustekniikoita on kehitetty 1990-luvun alkupuolelta lähtien, ja ne monipuolistuvat jatkuvasti. Tässä pro gradu -tutkielmassa tutkitaan sovellusalan terminologian kehitystä vertailevilla menetelmillä ja luodaan kolmikielinen sanasto alan asiantuntijoille, joita edustaa Suomessa FIRPA ry. Sanaston kielet ovat englanti, ranska ja suomi. Terminologian tutkimus on perinteisesti keskittynyt sanastotyöhön ja käsiteanalyysiin, sen sijaan termihistorian tutkimus on ollut vähäisempää. Tässä työssä on tehty vertailevaa termitutkimusta sekä sanastotyön että termihistorian näkökulmista. Vertailutasoja ovat termien merkityksen muuttuminen, vertailu pivot-kielen suhteen ja kielikohtaisten ominaisuuksien tarkastelu termien muotoutumisessa. Tutkittavia asioita ovat sanastokäsitteiden väliset suhteet, synonyymien, varianttien ja uudissanojen moninaisuus, ja termien yleiskielistyminen. Samalla pohditaan muita termien muuttumiseen vaikuttavia syita. Tärkeimpänä lähteenä käytetään Wohlersin vuosiraportteja, jotka kuvaavat kattavasti koko teollisuudenalaa. Koska englannin pivot-vaikutus on voimakasta teknisillä aloilla, omankielisen terminologian kehittyminen vaatii tietoista terminologiatyötä ja aktiivista omankielisten termien käyttöä. Terminologian vakiintumista voidaan arvioida termivarianttien ja uudissanojen määristä, sekä termien yleiskielistymisestä. Terminologia muuttuu jatkuvasti toimialan kehittyessä ja vaatii säännöllistä päivittämistä. Termihistorian tunteminen tukee sanastotyön termivalintoja. Alan asiantuntijat ovat vastuussa omasta terminologiastaan, ja heidän aktiivisuutensa on tärkeää sen kehittämisessä. Toteutettu sanasto on tämän pro gradu -tutkielman liitteenä ja se julkaistaan myös FIRPA ry:n Internet-sivustolla. Suomenkielinen osio sanastosta on ensimmäinen laaja suomeksi julkaistu materiaalia lisäävän valmistuksen sanasto.
Resumo:
The state of the object-oriented programming course in Lappeenranta University of Technology had reached the point, where it required changes to provide better learning opportunities and thus the learning outcomes. Based on the student feedback the course was partially dated and ineffective. The components of the course were analysed and the ineffective elements were removed and new methods were introduced to improve the course. The major changes included the change from traditional teaching methods to reverse classroom method and the use of Java as the programming language. The changes were measured by the student feedback, lecturer’s observations and comparison to previous years. The feedback suggested that the changes were successful; the course received higher overall grade than before.
Resumo:
Pikamallinnustekniikat ovat kehittyneet viime vuosina nopeasti. Tämä antaa jo lähes rajat-tomat mahdollisuudet tuottaa 3D-tulostamalla erilaisia tuotteita. 3D-tulostuksen hyödyntä-minen on yleistynyt erityisesti teollisuuden ja teknologian aloilla. Tässä työssä tutkittiin miten 3D-tulostamista voidaan hyödyntää diagnostisten pikatestien tuotekehityksessä. Immunologinen lateral flow-testi on vasta-aineisiin perustuva, nopea ja helppokäyttöinen mittausmenetelmä pienten ainemäärien havaitsemiseen. Tässä työssä kehitettiin lateral flow-testikotelo, jonka suunnitteluun ja rakenteen mallintamiseen käytettiin 3D-tulostustekniikkaa. Testikotelon toimivuus lateral flow- testissä varmistettiin kehittämällä testikoteloon sopiva pikatesti, jonka suorituskykyä analysoitiin sekä visuaalisesti että Actim 1ngeni-lukulaitteella. Työ aloitettiin tutkimalla eri pikavalmistustekniikoita, joista testikotelon tulostamiseen valittiin SLA-tekniikka sen tulostustarkkuuden ja tuotteen pinnan laadun perusteella. Testikotelon suunnittelu aloitettiin määrittämällä millaisia ominaisuuksia testikotelolta haluttiin. Näitä ominaisuuksia olivat lateral flow-testin suojaaminen sekä testissä kulkevan näytteen virtauksen varmistamien. Lateral flow- testin kehityksessä hyödynnettiin osin aiemmin kehitetystä pikatestistä saatuja tietoja. Lateral flow- kasettitestin valmistusprosessi koostui seitsemästä eri prosessivaiheesta jotka olivat: Vasta-aineen/kontrollireagenssin konjugointi, näytetyynyn käsittely, konjugointityynyn käsittely, konjugointityynylle annostelu, membraanille annostelu, tikkujen laminointi ja leikkaus sekä kasettitestin kokoonpano. Kehitetyn lateral flow- kasettitestin toimivuus varmistettiin tutkimalla testin reaktiokinetiikkaa ja analyyttistä herkkyyttä sekä visuaalisesti että lukulaitteen avulla. Tutkimustulosten perusteella 3D-tulostus on erittäin hyödyllinen menetelmä pikatestien tuotekehityksessä suunniteltaessa testikotelorakenteita, näytteen annosteluvälineitä ja näiden yhdistelmiä.
Resumo:
Presentation of Jussi-Pekka Hakkarainen, held at the Emtacl15 conference on the 20th of April 2015 in Trondheim, Norway.
Resumo:
Kandidaatintyössä tutkittiin Adam Klodowskin tutkimuksessa käytetyn menetelmän soveltuvuutta 3D-tulostimen mekanismiin. Tutkimustyö liittyy RepRap-projektiin, jonka tavoitteena on valmistaa 3D-tulostin 3D-tulostetuista osista. Mekaniikasta oli luotu matemaattinen malli, jota tutkittiin simuloinnin avulla. Työssä toteutettiin täysin yksilöity sulautettu ohjausjärjestelmä kyseiselle mekanismille ja tutkittiin järjestelmän soveltuvuutta käytäntöön. Tavoitteena oli vähentää komponenttien lukumäärää ja pienentää laitteiston vaatimaa tilaa.
Resumo:
The emerging technologies have recently challenged the libraries to reconsider their role as a mere mediator between the collections, researchers, and wider audiences (Sula, 2013), and libraries, especially the nationwide institutions like national libraries, haven’t always managed to face the challenge (Nygren et al., 2014). In the Digitization Project of Kindred Languages, the National Library of Finland has become a node that connects the partners to interplay and work for shared goals and objectives. In this paper, I will be drawing a picture of the crowdsourcing methods that have been established during the project to support both linguistic research and lingual diversity. The National Library of Finland has been executing the Digitization Project of Kindred Languages since 2012. The project seeks to digitize and publish approximately 1,200 monograph titles and more than 100 newspapers titles in various, and in some cases endangered Uralic languages. Once the digitization has been completed in 2015, the Fenno-Ugrica online collection will consist of 110,000 monograph pages and around 90,000 newspaper pages to which all users will have open access regardless of their place of residence. The majority of the digitized literature was originally published in the 1920s and 1930s in the Soviet Union, and it was the genesis and consolidation period of literary languages. This was the era when many Uralic languages were converted into media of popular education, enlightenment, and dissemination of information pertinent to the developing political agenda of the Soviet state. The ‘deluge’ of popular literature in the 1920s to 1930s suddenly challenged the lexical orthographic norms of the limited ecclesiastical publications from the 1880s onward. Newspapers were now written in orthographies and in word forms that the locals would understand. Textbooks were written to address the separate needs of both adults and children. New concepts were introduced in the language. This was the beginning of a renaissance and period of enlightenment (Rueter, 2013). The linguistically oriented population can also find writings to their delight, especially lexical items specific to a given publication, and orthographically documented specifics of phonetics. The project is financially supported by the Kone Foundation in Helsinki and is part of the Foundation’s Language Programme. One of the key objectives of the Kone Foundation Language Programme is to support a culture of openness and interaction in linguistic research, but also to promote citizen science as a tool for the participation of the language community in research. In addition to sharing this aspiration, our objective within the Language Programme is to make sure that old and new corpora in Uralic languages are made available for the open and interactive use of the academic community as well as the language societies. Wordlists are available in 17 languages, but without tokenization, lemmatization, and so on. This approach was verified with the scholars, and we consider the wordlists as raw data for linguists. Our data is used for creating the morphological analyzers and online dictionaries at the Helsinki and Tromsø Universities, for instance. In order to reach the targets, we will produce not only the digitized materials but also their development tools for supporting linguistic research and citizen science. The Digitization Project of Kindred Languages is thus linked with the research of language technology. The mission is to improve the usage and usability of digitized content. During the project, we have advanced methods that will refine the raw data for further use, especially in the linguistic research. How does the library meet the objectives, which appears to be beyond its traditional playground? The written materials from this period are a gold mine, so how could we retrieve these hidden treasures of languages out of the stack that contains more than 200,000 pages of literature in various Uralic languages? The problem is that the machined-encoded text (OCR) contains often too many mistakes to be used as such in research. The mistakes in OCRed texts must be corrected. For enhancing the OCRed texts, the National Library of Finland developed an open-source code OCR editor that enabled the editing of machine-encoded text for the benefit of linguistic research. This tool was necessary to implement, since these rare and peripheral prints did often include already perished characters, which are sadly neglected by the modern OCR software developers, but belong to the historical context of kindred languages and thus are an essential part of the linguistic heritage (van Hemel, 2014). Our crowdsourcing tool application is essentially an editor of Alto XML format. It consists of a back-end for managing users, permissions, and files, communicating through a REST API with a front-end interface—that is, the actual editor for correcting the OCRed text. The enhanced XML files can be retrieved from the Fenno-Ugrica collection for further purposes. Could the crowd do this work to support the academic research? The challenge in crowdsourcing lies in its nature. The targets in the traditional crowdsourcing have often been split into several microtasks that do not require any special skills from the anonymous people, a faceless crowd. This way of crowdsourcing may produce quantitative results, but from the research’s point of view, there is a danger that the needs of linguists are not necessarily met. Also, the remarkable downside is the lack of shared goal or the social affinity. There is no reward in the traditional methods of crowdsourcing (de Boer et al., 2012). Also, there has been criticism that digital humanities makes the humanities too data-driven and oriented towards quantitative methods, losing the values of critical qualitative methods (Fish, 2012). And on top of that, the downsides of the traditional crowdsourcing become more imminent when you leave the Anglophone world. Our potential crowd is geographically scattered in Russia. This crowd is linguistically heterogeneous, speaking 17 different languages. In many cases languages are close to extinction or longing for language revitalization, and the native speakers do not always have Internet access, so an open call for crowdsourcing would not have produced appeasing results for linguists. Thus, one has to identify carefully the potential niches to complete the needed tasks. When using the help of a crowd in a project that is aiming to support both linguistic research and survival of endangered languages, the approach has to be a different one. In nichesourcing, the tasks are distributed amongst a small crowd of citizen scientists (communities). Although communities provide smaller pools to draw resources, their specific richness in skill is suited for complex tasks with high-quality product expectations found in nichesourcing. Communities have a purpose and identity, and their regular interaction engenders social trust and reputation. These communities can correspond to research more precisely (de Boer et al., 2012). Instead of repetitive and rather trivial tasks, we are trying to utilize the knowledge and skills of citizen scientists to provide qualitative results. In nichesourcing, we hand in such assignments that would precisely fill the gaps in linguistic research. A typical task would be editing and collecting the words in such fields of vocabularies where the researchers do require more information. For instance, there is lack of Hill Mari words and terminology in anatomy. We have digitized the books in medicine, and we could try to track the words related to human organs by assigning the citizen scientists to edit and collect words with the OCR editor. From the nichesourcing’s perspective, it is essential that altruism play a central role when the language communities are involved. In nichesourcing, our goal is to reach a certain level of interplay, where the language communities would benefit from the results. For instance, the corrected words in Ingrian will be added to an online dictionary, which is made freely available for the public, so the society can benefit, too. This objective of interplay can be understood as an aspiration to support the endangered languages and the maintenance of lingual diversity, but also as a servant of ‘two masters’: research and society.