32 resultados para Distributed File System

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis the bifurcational behavior of the solutions of Langford system is analysed. The equilibriums of the Langford system are found, and the stability of equilibriums is discussed. The conditions of loss of stability are found. The periodic solution of the system is approximated. We consider three types of boundary condition for Langford spatially distributed system: Neumann conditions, Dirichlet conditions and Neumann conditions with additional requirement of zero average. We apply the Lyapunov-Schmidt method to Langford spatially distributed system for asymptotic approximation of the periodic mode. We analyse the influence of the diffusion on the behavior of self-oscillations. As well in the present work we perform numerical experiments and compare it with the analytical results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

SD card (Secure Digital Memory Card) is widely used in portable storage medium. Currently, latest researches on SD card, are mainly SD card controller based on FPGA (Field Programmable Gate Array). Most of them are relying on API interface (Application Programming Interface), AHB bus (Advanced High performance Bus), etc. They are dedicated to the realization of ultra high speed communication between SD card and upper systems. Studies about SD card controller, really play a vital role in the field of high speed cameras and other sub-areas of expertise. This design of FPGA-based file systems and SD2.0 IP (Intellectual Property core) does not only exhibit a nice transmission rate, but also achieve the systematic management of files, while retaining a strong portability and practicality. The file system design and implementation on a SD card covers the main three IP innovation points. First, the combination and integration of file system and SD card controller, makes the overall system highly integrated and practical. The popular SD2.0 protocol is implemented for communication channels. Pure digital logic design based on VHDL (Very-High-Speed Integrated Circuit Hardware Description Language), integrates the SD card controller in hardware layer and the FAT32 file system for the entire system. Secondly, the document management system mechanism makes document processing more convenient and easy. Especially for small files in batch processing, it can ease the pressure of upper system to frequently access and process them, thereby enhancing the overall efficiency of systems. Finally, digital design ensures the superior performance. For transmission security, CRC (Cyclic Redundancy Check) algorithm is for data transmission protection. Design of each module is platform-independent of macro cells, and keeps a better portability. Custom integrated instructions and interfaces may facilitate easily to use. Finally, the actual test went through multi-platform method, Xilinx and Altera FPGA developing platforms. The timing simulation and debugging of each module was covered. Finally, Test results show that the designed FPGA-based file system IP on SD card can support SD card, TF card and Micro SD with 2.0 protocols, and the successful implementation of systematic management for stored files, and supports SD bus mode. Data read and write rates in Kingston class10 card is approximately 24.27MB/s and 16.94MB/s.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014

Relevância:

80.00% 80.00%

Publicador:

Resumo:

XML:n kasvava suosio dokumenttiformaattina sekä sen alati monipuolistuva käyttö ovat lisänneet XML-tiedonhallintajärjestelmien tarvetta. Yksi tapa XML-dokumenttien hallintaan on edelleen tiedostopohjainen järjestelmä. Erilaisiin tietokantoihin perustuvat XML-tiedonhallintajärjestelmät ovat kuitenkin viime vuosina kasvattaneetsuosiotaan monipuolisempien ominaisuuksien ja paremman suorituskyvyn takia. Lisäksi XML-dokumenttien hallinta tiedostopohjaisessa järjestelmässä käy lähes mahdottomaksi suurilla datamäärillä. Suhteellisen uutena tulokkaana XML-dokumenttienhallintaan ovat tulleet natiivit XML -tietokannat, jotka ovat suunniteltu juuriXML:ää silmälläpitäen. Tässä diplomityössä esitellään erilaisia XML-tiedonhallintajärjestelmiä. Erityisesti relaatiotietokantoihin ja natiiveihin XML -tietokantoihin perustuvien ratkaisujen taustoihin ja teknisiin yksityiskohtiin yritetään luoda syvällinen katsaus. Neljälle XML-tiedonhallintaratkaisulle - Binary Approachille, Edge Approachille, eXistille ja Xindicelle - suoritetaan XMach-1 suorituskykytesti. Lisäksi testattavien ratkaisujen teknistä toimivuutta arvioidaan sekä analyyttisen että käytännön tarkastelun kautta. Suorituskykytestien ja teknisen toimivuuden arvioiden perusteella on tarkoitus valita XML-tiedonhallintaratkaisu Javalla toteutetulle Web-sovellukselle, joka käyttää XML:ää tietojen tallennusformaattina.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tuotekehitysprojektin tarkoitus oli kehittää "älykäs" automaatiojärjestelmä kahdesta portaalirobotista muodostuvaan kuljetinlinjaan, jossa molemmat robotit synkronoidaan kulkemaan yhtäaikaisesti sähköisen akselin avulla. Tämän teknisen ratkaisun avulla kiinteitä kustannuksia, kuten valmistus- ja asennuskustannukset, saadaan laskemaan. Kuljetinlinjaa ohjataan hajautetun automaatiojärjestelmän avulla, jossa vastaanotettu ja lähetetty tieto kulkee MPI- ja Profibus-väylien kautta. Ohjelmoitava logiikkaohjain hoitaa tiedonsiirron ylätason PC:n ja hajautettujen solmujen välillä sekä jakaa tehtäviä alatason periferialaitteille. Robottien välinen sähköinen akseli mahdollistaa terästukirakenteiden ja kehikkojen jäämisen pois, jotka vain vievät tilaa tuotantotiloilta, laitteistoilta ja koneilta. Tukirakenteiden asennustyöt ovat myös aikaa vieviä ja kalliita. Huolimatta lisääntyneestä elektronisten komponenttien lukumäärästä tulee uusi tekninen ratkaisu kustannuksiltaan halvemmaksi kuin aikaisemmin käytetty mekaanisesti yhdistetty kuljetin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tavoitteena oli kehittää laajentumiskykyinen ja tarkka hajautettu mittajärjestelmä venymille ja vastaaville ilmiöille, joka silti kestäisi ankaria olosuhteita. Mittajärjestelmän tehtävä oli esittää keräämänsä tieto Internetissä. Työssä esitellään kehityksen avainkohdat. Työssä on käsitelty koko mittausjärjestelmän suunnitteluun vaikuttavien tekijöitten kaari. Esimerkki-ilmiönä käsitellään venymä. Esittelen sen fysikaalisen luonteen ja tavat joilla venymän rajat vaikuttavat mittausketjun vaatimuksiin. Samoin on esimerkein käsitelty itse anturointitapa ja sen häiriötyypit. Työ luo yhtenäisen matemaattisen katsauksen häiriöihin ja niiden hallitsemiseen ilmiöstä digitointivaiheeseen asti. Eri osa-alueiden häiriötekijät ilmaistaan valitun toisiinsa nivoutuvan terminologian kautta. Työ käsittelee tiedon digitoimisen ja verkottamisen problematiikkaa. Työssä verrataan tarjolla olleita vaihtoehtoja ja dokumentoidaan lopullisessa järjestelmässä käytetyt ratkaisut ja niiden valitsemisen syyt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tässä kandidaatintyössä on käsitelty hajautetun sähköntuotannon verkostovaikutuksia eri näkökulmista. Työssä on esitelty keskeisimmät sähkötekniset vaikutukset jakeluverkkoon ja tarkasteltu vaikutuksia suojauksen, käyttövarmuuden, verkkoliiketoiminnan ja suunnittelun näkökulmasta. Tarkastelu osuuden lopuksi on esitetty yksinkertainen esimerkki pienvoimalan liittämisen vaikutuksista jakeluverkkoon. Työn lopuksi on otettu katsaus tuleviin vaikutuksiin tuotantoyksiköiden lisääntyessä jakeluverkoissa. Hajautettu sähköntuotanto mahdollistaa paikallisten energiavarojen hyödyntämisen sähköntuotantoon jakeluverkon alueella. Tämä tarkoittaa, että siirtoetäisyydet pienenevät, jolloin häviöt saadaan minimoitua. Haittapuolena tällaisessa järjestelmässä on epävarmuus jakeluverkon ja tuotantoyksiköiden käyttäytymisestä eri tilanteissa, kuten myös jännitteen nousu. Suojauksen toimivuus on myös suuri ongelma, koska sen täytyy toimia riippumatta siitä onko voimala verkossa vai ei. Suojauksen toiminta hajautetun tuotannon yhteydessä on epävarmaa ja selvästi tällä hetkellä suurin este järjestelmän laajempaan hyödyntämiseen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työssä perehdytään simulaatiotekniikkaan, jossa käytetään osana fyysistä laitteistoa, ja siihen tarvittaviin komponentteihin, kuten ohjelmistorajapintoihin sekä kenttäväylään. Työssä tutustutaan myös IEC 61131-3 ja IEC 61499 -standardien mukaisiin toimintolohkomalleihin, joita käytetään automaatiossa. Näiden perusteella kehitetään järjestelmä, jonka avulla Simulink-ympäristössä voidaan oman toimintolohkon avulla käyttää taajuusmuuttajaa osana simulaatiota. Tällaisen reaaliaikaisen systeemin eri osien väliseen synkronointiin kiinnitetään myös huomiota. Järjestelmää testataan simulaatiomallilla, jossa syötetään vääntömomenttiohje taajuusmuuttajalle, joka mittaa siihen kytketyn moottorin pyörimisnopeuden. Mallilla voidaan esimerkiksi arvioida kuorman hitausmomentti. Työssä tutustutaan myös taajuusmuuttajien ohjelmallisiin ominaisuuksiin ja niiden perusteella pohditaan esitetyn kaltaisten järjestelmien käyttöä hajautettuna automaatiojärjestelmänä. Kokeellinen työ tehtiin säätö- ja digitaalitekniikan laboratoriossa vuoden 2010 aikana.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Today’s commercial web sites are under heavy user load and they are expected to be operational and available at all times. Distributed system architectures have been developed to provide a scalable and failure tolerant high availability platform for these web based services. The focus on this thesis was to specify and implement resilient and scalable locally distributed high availability system architecture for a web based service. Theory part concentrates on the fundamental characteristics of distributed systems and presents common scalable high availability server architectures that are used in web based services. In the practical part of the thesis the implemented new system architecture is explained. Practical part also includes two different test cases that were done to test the system's performance capacity.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The capabilities and thus, design complexity of VLSI-based embedded systems have increased tremendously in recent years, riding the wave of Moore’s law. The time-to-market requirements are also shrinking, imposing challenges to the designers, which in turn, seek to adopt new design methods to increase their productivity. As an answer to these new pressures, modern day systems have moved towards on-chip multiprocessing technologies. New architectures have emerged in on-chip multiprocessing in order to utilize the tremendous advances of fabrication technology. Platform-based design is a possible solution in addressing these challenges. The principle behind the approach is to separate the functionality of an application from the organization and communication architecture of hardware platform at several levels of abstraction. The existing design methodologies pertaining to platform-based design approach don’t provide full automation at every level of the design processes, and sometimes, the co-design of platform-based systems lead to sub-optimal systems. In addition, the design productivity gap in multiprocessor systems remain a key challenge due to existing design methodologies. This thesis addresses the aforementioned challenges and discusses the creation of a development framework for a platform-based system design, in the context of the SegBus platform - a distributed communication architecture. This research aims to provide automated procedures for platform design and application mapping. Structural verification support is also featured thus ensuring correct-by-design platforms. The solution is based on a model-based process. Both the platform and the application are modeled using the Unified Modeling Language. This thesis develops a Domain Specific Language to support platform modeling based on a corresponding UML profile. Object Constraint Language constraints are used to support structurally correct platform construction. An emulator is thus introduced to allow as much as possible accurate performance estimation of the solution, at high abstraction levels. VHDL code is automatically generated, in the form of “snippets” to be employed in the arbiter modules of the platform, as required by the application. The resulting framework is applied in building an actual design solution for an MP3 stereo audio decoder application.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The energy system of Russia is the world's fourth largest measured by installed power. The largest are that of the the United States of America, China and Japan. After 1990, the electricity consumption decreased as a result of the Russian industry crisis. The vivid economic growth during the latest few years explains the new increase in the demand for energy resources within the State. In 2005 the consumption of electricity achieved the maximum level of 1990 and continues to growth. In the 1980's, the renewal of power facilities was already very slow and practically stopped in the 1990's. At present, the energy system can be very much characterized as outdated, inefficient and uneconomic because of the old equipment, non-effective structure and large losses in the transmission lines. The aim of Russia's energy reform, which was started in 2001, is to achieve a market based energy policy by 2011. This would thus remove the significantly state-controlled monopoly in Russia's energy policy. The reform will stimulateto decrease losses, improve the energy system and employ energy-saving technologies. The Russian energy system today is still based on the use of fossil fuels, and it almost totally ignores the efficient use of renewable sources such as wind, solar, small hydro and biomass, despite of their significant resources in Russia. The main target of this project is to consider opportunities to apply renewable energy production in the North-West Federal Region of Russia to partly solve the above mentioned problems in the energy system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tässä diplomityössä esitellään ohjelmistotestauksen ja verifioinnin yleisiä periaatteita sekä käsitellään tarkemmin älypuhelinohjelmistojen verifiointia. Työssä esitellään myös älypuhelimissa käytettävä Symbian-käyttöjärjestelmä. Työn käytännön osuudessa suunniteltiin ja toteutettiin Symbian-käyttöjärjestelmässä toimiva palvelin, joka tarkkailee ja tallentaa järjestelmäresurssien käyttöä. Verifiointi on tärkeä ja kuluja aiheuttava tehtävä älypuhelinohjelmistojen kehityssyklissä. Kuluja voidaan vähentää automatisoimalla osa verifiointiprosessista. Toteutettu palvelin automatisoijärjestelmäresurssien tarkkailun tallentamalla tietoja niistä tiedostoon testien ajon aikana. Kun testit ajetaan uudestaan, uusia tuloksia vertaillaan lähdetallenteeseen. Jos tulokset eivät ole käyttäjän asettamien virherajojen sisällä, siitä ilmoitetaan käyttäjälle. Virherajojen ja lähdetallenteen määrittäminen saattaa osoittautua vaikeaksi. Kuitenkin, jos ne määritetään sopivasti, palvelin tuottaa hyödyllistä tietoa poikkeamista järjestelmäresurssien kulutuksessa testaajille.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The nature of client-server architecture implies that some modules are delivered to customers. These publicly distributed commercial software components are under risk, because users (and simultaneously potential malefactors) have physical access to some components of the distributed system. The problem becomes even worse if interpreted programming languages are used for creation of client side modules. The language Java, which was designed to be compiled into platform independent byte-code is not an exception and runs the additional risk. Along with advantages like verifying the code before execution (to ensure that program does not produce some illegal operations)Java has some disadvantages. On a stage of byte-code a java program still contains comments, line numbers and some other instructions, which can be used for reverse-engineering. This Master's thesis focuses on protection of Java code based client-server applications. I present a mixture of methods to protect software from tortious acts. Then I shall realize all the theoretical assumptions in a practice and examine their efficiency in examples of Java code. One of the criteria's to evaluate the system is that my product is used for specialized area of interactive television.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis examines the history and evolution of information system process innovation (ISPI) processes (adoption, adaptation, and unlearning) within the information system development (ISD) work in an internal information system (IS) department and in two IS software house organisations in Finland over a 43-year time-period. The study offers insights into influential actors and their dependencies in deciding over ISPIs. The research usesa qualitative research approach, and the research methodology involves the description of the ISPI processes, how the actors searched for ISPIs, and how the relationships between the actors changed over time. The existing theories were evaluated using the conceptual models of the ISPI processes based on the innovationliterature in the IS area. The main focus of the study was to observe changes in the main ISPI processes over time. The main contribution of the thesis is a new theory. The term theory should be understood as 1) a new conceptual framework of the ISPI processes, 2) new ISPI concepts and categories, and the relationships between the ISPI concepts inside the ISPI processes. The study gives a comprehensive and systematic study on the history and evolution of the ISPI processes; reveals the factors that affected ISPI adoption; studies ISPI knowledge acquisition, information transfer, and adaptation mechanisms; and reveals the mechanismsaffecting ISPI unlearning; changes in the ISPI processes; and diverse actors involved in the processes. The results show that both the internal IS department and the two IS software houses sought opportunities to improve their technical skills and career paths and this created an innovative culture. When new technology generations come to the market the platform systems need to be renewed, and therefore the organisations invest in ISPIs in cycles. The extent of internal learning and experiments was higher than the external knowledge acquisition. Until the outsourcing event (1984) the decision-making was centralised and the internalIS department was very influential over ISPIs. After outsourcing, decision-making became distributed between the two IS software houses, the IS client, and itsinternal IT department. The IS client wanted to assure that information systemswould serve the business of the company and thus wanted to co-operate closely with the software organisations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Technological development brings more and more complex systems to the consumer markets. The time required for bringing a new product to market is crucial for the competitive edge of a company. Simulation is used as a tool to model these products and their operation before actual live systems are built. The complexity of these systems can easily require large amounts of memory and computing power. Distributed simulation can be used to meet these demands. Distributed simulation has its problems. Diworse, a distributed simulation environment, was used in this study to analyze the different factors that affect the time required for the simulation of a system. Examples of these factors are the simulation algorithm, communication protocols, partitioning of the problem, distributionof the problem, capabilities of the computing and communications equipment and the external load. Offices offer vast amounts of unused capabilities in the formof idle workstations. The use of this computing power for distributed simulation requires the simulation to adapt to a changing load situation. This requires all or part of the simulation work to be removed from a workstation when the owner wishes to use the workstation again. If load balancing is not performed, the simulation suffers from the workstation's reduced performance, which also hampers the owner's work. Operation of load balancing in Diworse is studied and it is shown to perform better than no load balancing, as well as which different approaches for load balancing are discussed.