932 resultados para distributed computing projects
Resumo:
Työn tavoitteena oli kokonaisnäkemyksen luominen Helsingin seudun liikenteenhallinnan tilasta ja kehitysnäkymistä sekä seuraavien tärkeimpien kehittämispolkujen tunnistaminen ja konkretisointi toimenpiteiksi. Työssä keskityttiin seuraaviin painopistealueisiin 1. Liityntäpysäköinnin informaation ja maksujärjestelmien kehittäminen 2. Liikenteenhallintakeskuksen toiminnan kehittäminen ja laajentaminen 3. Liikennejärjestelmän reaaliaikainen tilannekuva ja lyhyen aikavälin ennusteet 4. Pääkaupunkiseudun pääväylien ruuhkien ja häiriöiden hallinta 5. Joukkoliikenteen ajantasaisen matkustajainformaation kehittäminen. Työssä laadittiin katsaus kullakin painopistealueella jo tapahtuneeseen sekä käynnissä olevaan kehitystyöhön, kuvattiin esiin nousseita ongelmia ja laadittiin esitys vuoteen 2020 ulottuvasta toiminnallisesta tavoitetilasta sekä konkreettisista kehittämistoimista. Työssä järjestettiin myös tulevaisuustyöpaja, johon pyydettiin alustuksia valikoiduilta viranomaistahoilta, tutkijoilta ja palveluntuottajilta. Näiden keskustelujen kautta kirkastettiin seudun toimijoiden näkemystä älyliikenteen toimialan kehitysnäkymistä ja –tarpeista. Työn lopputuloksena syntyneeseen toimenpideohjelmaan kirjattiin yhteensä 30 hanketta. Näistä viisi hanketta valittiin työpajatyöskentelyn kautta varsinaisiksi kärkihankkeiksi, joiden toteutus on kriittistä liikkujien ja viranomaistyön palvelutason kannalta ja joka edellyttää usean toimijan yhteistyötä. Lisäksi tunnistettiin joukko seurattavia hankkeita. Valitut kärkihankkeet, käynnistämisen vastuutaho sekä tavoitteellinen käynnistysvuosi ovat seuraavat: 1. Liityntäpysäköinnin dynaamisen informaatiojärjestelmän pilotointi Hämeenlinnanväylän käytävässä Kehäradan asemilla (HSL 2012) 2. HSL:n alueen joukkoliikenteen häiriönhallinnan uudelleenorganisointi (HSL, Liikennevirasto 2012) 3. Seudullisen liikenteenhallintasuunnitelman laadinta verkollisen operoinnin kehittämiseksi häiriötilanteissa (ELY-keskus, Liikennevirasto 2013) 4. Reaaliaikaisen sujuvuustiedon tuottaminen ruuhkautuvalta pääkatu- ja alempiasteiselta maantieverkolta (Liikennevirasto, kunnat 2012) 5. Liikenteen vaihtuvan ohjauksen ja tiedottamisen hyödyntäminen pääväylien ruuhkautumisen ja häiriöiden hallinnassa. (ELY-keskus 2012) Kärkihankkeisiin ei liity sellaisia riippuvuuksia, että niitä ei voitaisi käynnistää ennen päätöksentekoa jostakin muusta investoinnista. Merkittävimmät riippuvuudet liittyvät LIJ2014-järjestelmän ajoneuvojen paikannuksen ja muiden työkalujen valmistumiseen. Johtoryhmän linjauksen mukaan kärkihankkeissa ja muissakin toimijoiden omissa hankkeissa syntyvien tietojärjestelmien rajapinnat avataan soveltuvasti kaupallisten toimijoiden käyttöön, jolloin syntyvien kaupallisten loppukäyttäjäpalveluiden kautta voidaan parantaa tietopalvelujen tavoittavuutta. Kärkihankkeiden valinta ja sisältö on rakennettu pitkälti sen lähtökohdan varaan, että liikenteen tietopalveluissa julkistoimijoiden roolina on pääasiassa lähtötietojen tuottaminen ja jakaminen varsinaisille palveluntuottajille. Vuoteen 2016 mennessä uusien rajapintojen kautta jaettavien tietojen määrä on nykyiseen verrattuna huomattavasti laajempi, ja odotukset uusien ja innovatiivisten palvelujen syntymiselle ovat korkeat. HLH-johtoryhmä nimeää jokaisen kärkihankkeen läpiviennistä vastaavan työryhmän, joiden työskentelyä ohjataan nykyisen kaltaisessa johtoryhmätyössä. Johtoryhmätyön organisointi on todettu toimivaksi, sillä ryhmä koostuu seudun 14 kunnan alueen keskeisistä julkisista toimijoista ja sen kautta on olemassa vahvat kytkennät sekä seudun liikennejärjestelmätyöhön (HLJ) että valtakunnalliseen älyliikenteen kehitystyöhön.
Resumo:
This thesis focuses on integration in project business, i.e. how projectbased companies organize their product and process structures when they deliver industrial solutions to their customers. The customers that invest in these solutions run their businesses in different geographical, political and economical environments, which should be acknowledged by the supplier when providing solutions comprising of larger and more complex scopes than previously supplied to these customers. This means that the suppliers are increasing their supply range by taking over some of the activities in the value chain that have traditionally been handled by the customer. In order to be able to provide the functioning solutions, including more engineering hours, technical equipment and a wider project network, a change is needed in the mindset in order to be able to carry out and take the required responsibility that these new approaches bring. For the supplier it is important to be able to integrate technical products, systems and services, but the supplier also needs to have the capabilities to integrate the cross-functional organizations and departments in the project network, the knowledge and information between and within these organizations and departments, along with inputs from the customer into the product and process structures during the lifecycle of the project under development. Hence, the main objective of this thesis is to explore the challenges of integration that industrial projects meet, and based on that, to suggest a concept of how to manage integration in project business by making use of integration mechanisms. Integration is considered the essential process for accomplishing an industrial project, whereas the accomplishment of the industrial project is considered to be the result of the integration. The thesis consists of an extended summary and four papers, that are based on three studies in which integration mechanisms for value creation in industrial project networks and the management of integration in project business have been explored. The research is based on an inductive approach where in particular the design, commissioning and operations functions of industrial projects have been studied, addressing entire project life-cycles. The studies have been conducted in the shipbuilding and power generation industries where the scopes of supply consist of stand-alone equipment, equipment and engineering, and turnkey solutions. These industrial solutions include demanding efforts in engineering and organization. Addressing the calls for more studies on the evolving value chains of integrated solutions, mechanisms for inter- and intra-organizational integration and subsequent value creation in project networks have been explored. The research results in thirteen integration mechanisms and a typology for integration is proposed. Managing integration consists of integrating the project network (the supplier and the sub-suppliers) and the customer (the customer’s business purpose, operations environment and the end-user) into the project by making use of integration mechanisms. The findings bring new insight into research on industrial project business by proposing integration of technology and engineering related elements with elements related to customer oriented business performance in contemporary project environments. Thirteen mechanisms for combining products and the processes needed to deliver projects are described and categorized according to the impact that they have on the management of knowledge and information. These mechanisms directly relate to the performance of the supplier, and consequently to the functioning of the solution that the project provides. This thesis offers ways to promote integration of knowledge and information during the lifecycle of industrial projects, enhancing the development towards innovative solutions in project business.
Resumo:
Fossiiliset polttoainevarannot ovat ehtymässä. Nykyisen talouskasvumme perustuessa fossiilisten polttoaineiden kestämättömään käyttöön, on energiantuotantorakenteen muututtava. Euroopan Unioni on asettanut tavoitteet uusiutuvan energian osuuden lisäämiseksi. Näistä syistä johtuen kiinnostus uusiutuvaa energiaa ja hajautettua energiantuotantoa kohtaan on kasvanut viime aikoina. Tämän globaalin ilmiön rinnalla yhteiskuntarakenteen muutos Suomessa on johtanut tilanteeseen, jossa taloudellinen aktiviteetti kasvukeskusten ulkopuolella on hiipumassa. Loogisena ratkaisumallina on syntynyt hankkeita kuten Keski-Karjalan Kehitysyhtiö Oy:n Puhos 2013 - ympäristöalasta uutta liiketoimintaa - hanke. Tämä työ on Puhos 2013 - hankkeeseen tilattu tutkimus, jonka tavoitteena on puuta ja biokaasua polttoaineenaan käyttävän mikroturbiinitekniikkaan pohjautuvan pienen kokoluokan CHP tuotannon kannattavuuden selvittäminen kunnallisen lämpölaitoksen yhteydessä. Tutkimuksessa selvitettiin aluksi pienen kokoluokan CHP tuotannon kannattavuuteen vaikuttavat tekijät, jonka jälkeen opittua tietoa sovellettiin Kiteen Lämmön Arppentien lämpölaitoksen tapaukseen. Kiteen Lämmön taloudellisen kannattavuuden ohella tutkimuksessa huomioitiin uusien liiketoiminta mahdollisuuksien syntyminen alueelle. Käytetyt tutkimusmenetelmät olivat kvalitatiivinen analyysi ja perinteinen investoinnin kannattavuuslaskenta. Tutkimuksen tuloksena muodostettiin strategia, joka maksimoi molemmat edellä mainitut kannattavuuden näkökulmat. Kehitetyn strategian Kiteen Lämmön tulosta maksimoiva osuus muodostuu oman käyttösähkön tuottamisen aloittamisesta Arppentien lämpölaitoksella 30 kWe mikroturbiinilla käyttäen polttoaineena Bio10 Oy:n toimittamaa biokaasua. Uusien liiketoiminta mahdollisuuksien synty alueelle mahdollistetaan puolestaan kehittämällä puun kaasutukseen perustuva modulaarinen CHP laitos yhteistyössä Mekrijärven tutkimusaseman ja suomalaisten laitevalmistajien kanssa.
Resumo:
Memristive computing refers to the utilization of the memristor, the fourth fundamental passive circuit element, in computational tasks. The existence of the memristor was theoretically predicted in 1971 by Leon O. Chua, but experimentally validated only in 2008 by HP Labs. A memristor is essentially a nonvolatile nanoscale programmable resistor — indeed, memory resistor — whose resistance, or memristance to be precise, is changed by applying a voltage across, or current through, the device. Memristive computing is a new area of research, and many of its fundamental questions still remain open. For example, it is yet unclear which applications would benefit the most from the inherent nonlinear dynamics of memristors. In any case, these dynamics should be exploited to allow memristors to perform computation in a natural way instead of attempting to emulate existing technologies such as CMOS logic. Examples of such methods of computation presented in this thesis are memristive stateful logic operations, memristive multiplication based on the translinear principle, and the exploitation of nonlinear dynamics to construct chaotic memristive circuits. This thesis considers memristive computing at various levels of abstraction. The first part of the thesis analyses the physical properties and the current-voltage behaviour of a single device. The middle part presents memristor programming methods, and describes microcircuits for logic and analog operations. The final chapters discuss memristive computing in largescale applications. In particular, cellular neural networks, and associative memory architectures are proposed as applications that significantly benefit from memristive implementation. The work presents several new results on memristor modeling and programming, memristive logic, analog arithmetic operations on memristors, and applications of memristors. The main conclusion of this thesis is that memristive computing will be advantageous in large-scale, highly parallel mixed-mode processing architectures. This can be justified by the following two arguments. First, since processing can be performed directly within memristive memory architectures, the required circuitry, processing time, and possibly also power consumption can be reduced compared to a conventional CMOS implementation. Second, intrachip communication can be naturally implemented by a memristive crossbar structure.
Resumo:
Open source and open source software development have been interesting phenomena during the past decade. Traditional business models do not apply with open source, where the actual product is free. However, it is possible to make business with open source, even successfully, but the question is: how? The aim of this study is to find the key factors of successfully making business out of commercial open source software development. The task is achieved by finding the factors that influence open source projects, finding the relation between those factors, and find out why some factors explain the success more than others. The literature review concentrates first on background of open innovation, open source and open source software. Then business models, critical success factors and success measures are examined. Based on existing literature a framework was created. The framework contains categorized success factors that influence software projects in general as well as open source software projects. The main categories of success factors in software business are divided into community management, technology management, project management and market management. In order to find out which of the factors based on the existing literature are the most critical, empirical research was done by conducting unstructured personal interviews. The main finding based on the interviews is that the critical success factors in open source software business do not differ from those in traditional software business or in fact from those in any other business. Some factors in the framework came out in the interviews that can be considered as key factors: establishing and communicating hierarchy (community management), localization (technology management), good license know-how and IPR management (project management), and effective market management (market management). The critical success factors according to the interviewees are not listed in the framework: low price, good product and good business model development.
Resumo:
Over the past decade, organizations worldwide have begun to widely adopt agile software development practices, which offer greater flexibility to frequently changing business requirements, better cost effectiveness due to minimization of waste, faster time-to-market, and closer collaboration between business and IT. At the same time, IT services are continuing to be increasingly outsourced to third parties providing the organizations with the ability to focus on their core capabilities as well as to take advantage of better demand scalability, access to specialized skills, and cost benefits. An output-based pricing model, where the customers pay directly for the functionality that was delivered rather than the effort spent, is quickly becoming a new trend in IT outsourcing allowing to transfer the risk away from the customer while at the same time offering much better incentives for the supplier to optimize processes and improve efficiency, and consequently producing a true win-win outcome. Despite the widespread adoption of both agile practices and output-based outsourcing, there is little formal research available on how the two can be effectively combined in practice. Moreover, little practical guidance exists on how companies can measure the performance of their agile projects, which are being delivered in an output-based outsourced environment. This research attempted to shed light on this issue by developing a practical project monitoring framework which may be readily applied by organizations to monitor the performance of agile projects in an output-based outsourcing context, thus taking advantage of the combined benefits of such an arrangement Modified from action research approach, this research was divided into two cycles, each consisting of the Identification, Analysis, Verification, and Conclusion phases. During Cycle 1, a list of six Key Performance Indicators (KPIs) was proposed and accepted by the professionals in the studied multinational organization, which formed the core of the proposed framework and answered the first research sub-question of what needs to be measured. In Cycle 2, a more in-depth analysis was provided for each of the suggested Key Performance Indicators including the techniques for capturing, calculating, and evaluating the information provided by each KPI. In the course of Cycle 2, the second research sub-question was answered, clarifying how the data for each KPI needed to be measured, interpreted, and acted upon. Consequently, after two incremental research cycles, the primary research question was answered describing the practical framework that may be used for monitoring the performance of agile IT projects delivered in an output-based outsourcing context. This framework was evaluated by the professionals within the context of the studied organization and received positive feedback across all four evaluation criteria set forth in this research, including the low overhead of data collection, high value of provided information, ease of understandability of the metric dashboard, and high generalizability of the proposed framework.
Resumo:
This research is focused on deriving framework for the value thought for from the Customer Relationship Management system adopted by an enterprise operating in the financial services industry. It will analyze existing academic work to derive a conceptual value model, while applying secondary industry specific case studies provided by the CRM vendors to check the validity and commonality of these drivers. Furthermore this work locates the variances and correlation between value thought for from CRM system, scope of enterprise operations and size of the enterprise.
Resumo:
Technological developments in microprocessors and ICT landscape have made a shift to a new era where computing power is embedded in numerous small distributed objects and devices in our everyday lives. These small computing devices are ne-tuned to perform a particular task and are increasingly reaching our society at every level. For example, home appliances such as programmable washing machines, microwave ovens etc., employ several sensors to improve performance and convenience. Similarly, cars have on-board computers that use information from many di erent sensors to control things such as fuel injectors, spark plug etc., to perform their tasks e ciently. These individual devices make life easy by helping in taking decisions and removing the burden from their users. All these objects and devices obtain some piece of information about the physical environment. Each of these devices is an island with no proper connectivity and information sharing between each other. Sharing of information between these heterogeneous devices could enable a whole new universe of innovative and intelligent applications. The information sharing between the devices is a diffcult task due to the heterogeneity and interoperability of devices. Smart Space vision is to overcome these issues of heterogeneity and interoperability so that the devices can understand each other and utilize services of each other by information sharing. This enables innovative local mashup applications based on shared data between heterogeneous devices. Smart homes are one such example of Smart Spaces which facilitate to bring the health care system to the patient, by intelligent interconnection of resources and their collective behavior, as opposed to bringing the patient into the health system. In addition, the use of mobile handheld devices has risen at a tremendous rate during the last few years and they have become an essential part of everyday life. Mobile phones o er a wide range of different services to their users including text and multimedia messages, Internet, audio, video, email applications and most recently TV services. The interactive TV provides a variety of applications for the viewers. The combination of interactive TV and the Smart Spaces could give innovative applications that are personalized, context-aware, ubiquitous and intelligent by enabling heterogeneous systems to collaborate each other by sharing information between them. There are many challenges in designing the frameworks and application development tools for rapid and easy development of these applications. The research work presented in this thesis addresses these issues. The original publications presented in the second part of this thesis propose architectures and methodologies for interactive and context-aware applications, and tools for the development of these applications. We demonstrated the suitability of our ontology-driven application development tools and rule basedapproach for the development of dynamic, context-aware ubiquitous iTV applications.
Resumo:
Tämän pro gradu -tutkielman aiheena on kääntäminen ja viestintä vieraalla kielellä Suomen ulkoasiainministeriön rahoittamissa kansalaisjärjestöjen kehitysyhteistyöhankkeissa. Tutkielman on tarkoitus kartoittaa kyseisten kehitysyhteistyöhankkeiden kääntämiseen ja vieraskieliseen viestintään liittyviä tarpeita ja -käytäntöjä. Aihetta ei ole tutkittu laajasti muutoin, joten empiirinen osuus on erityisen merkittävässä roolissa. Tutkielman alussa esitellään ulkoasiainministeriön laatimia suomalaisten kansalaisjärjestöjen kehitysyhteistyöhankkeiden ehtoja ja ohjeita, jotka ovat kyseiselle tutkimukselle olennaisia. Tutkielman teoreettinen osuus koostuu lähinnä metodologisesta pohdinnasta, koska aiempaa tutkimustietoa on vähän. Tutkimusmetodien analysointia on painotettu myös siksi, että empiirisellä osuudella on niin suuri merkitys. Tutkielman empiirinen aineisto on yhtäältä peräisin tutkijan havainnoista, jotka saatiin omia varhaisempia hankehallinnointikokemuksia hyödyntäen sekä osallistuvan havainnoinnin menetelmää käyttäen kahden opiskelijajärjestön kehitysyhteistyöhankkeista vuosien 2009 ja 2012 välisenä aikana. Toisaalta aineisto on kerätty kyselytutkimuksen vastauksista. Kysely lähetettiin 35 suomalaiselle kansalaisjärjestölle, joiden kehitysyhteistyöhankkeita Suomen ulkoasiainministeriö rahoittaa. Järjestöt valittiin satunnaisotannalla. Empiirisen aineiston analyysistä ilmeni muun muassa, että tutkijan alkuperäinen hypoteesi kehitysyhteistyöhön liittyvien tekstien kääntämisen yleisyydestä pitää osittain paikkansa, vaikka tekstejä käännettiinkin kansalaisjärjestöissä vähemmän kuin tutkija odotti. Tutkimusaineisto ei ole kuitenkaan tarpeeksi laaja, jotta tuloksia voitaisiin yleistää, sillä kansalaisjärjestöt, niiden hankkeet, käännöstarpeet ja asiantuntemus osoittautuivat odotetusti hyvin erilaisiksi. Tulokset sisältävät asiaa myös esimerkiksi järjestöissä kääntävien ja vieraalla kielellä viestivien taustoista. Jatkotutkimukset ovat kuitenkin tarpeen, ja mahdollisia tutkimusaiheita on runsaasti.
Resumo:
Valmistustekniikoiden kehittyessä IC-piireille saadaan mahtumaan yhä enemmän transistoreja. Monimutkaisemmat piirit mahdollistavat suurempien laskutoimitusmäärien suorittamisen aikayksikössä. Piirien aktiivisuuden lisääntyessä myös niiden energiankulutus lisääntyy, ja tämä puolestaan lisää piirin lämmöntuotantoa. Liiallinen lämpö rajoittaa piirien toimintaa. Tämän takia tarvitaan tekniikoita, joilla piirien energiankulutusta saadaan pienennettyä. Uudeksi tutkimuskohteeksi ovat tulleet pienet laitteet, jotka seuraavat esimerkiksi ihmiskehon toimintaa, rakennuksia tai siltoja. Tällaisten laitteiden on oltava energiankulutukseltaan pieniä, jotta ne voivat toimia pitkiä aikoja ilman akkujen lataamista. Near-Threshold Computing on tekniikka, jolla pyritään pienentämään integroitujen piirien energiankulutusta. Periaatteena on käyttää piireillä pienempää käyttöjännitettä kuin piirivalmistaja on niille alunperin suunnitellut. Tämä hidastaa ja haittaa piirin toimintaa. Jos kuitenkin laitteen toiminnassa pystyään hyväksymään huonompi laskentateho ja pienentynyt toimintavarmuus, voidaan saavuttaa säästöä energiankulutuksessa. Tässä diplomityössä tarkastellaan Near-Threshold Computing -tekniikkaa eri näkökulmista: aluksi perustuen kirjallisuudesta löytyviin aikaisempiin tutkimuksiin, ja myöhemmin tutkimalla Near-Threshold Computing -tekniikan soveltamista kahden tapaustutkimuksen kautta. Tapaustutkimuksissa tarkastellaan FO4-invertteriä sekä 6T SRAM -solua piirisimulaatioiden avulla. Näiden komponenttien käyttäytymisen Near-Threshold Computing –jännitteillä voidaan tulkita antavan kattavan kuvan suuresta osasta tavanomaisen IC-piirin pinta-alaa ja energiankulusta. Tapaustutkimuksissa käytetään 130 nm teknologiaa, ja niissä mallinnetaan todellisia piirivalmistusprosessin tuotteita ajamalla useita Monte Carlo -simulaatioita. Tämä valmistuskustannuksiltaan huokea teknologia yhdistettynä Near-Threshold Computing -tekniikkaan mahdollistaa matalan energiankulutuksen piirien valmistaminen järkevään hintaan. Tämän diplomityön tulokset näyttävät, että Near-Threshold Computing pienentää piirien energiankulutusta merkittävästi. Toisaalta, piirien nopeus heikkenee, ja yleisesti käytetty 6T SRAM -muistisolu muuttuu epäluotettavaksi. Pidemmät polut logiikkapiireissä sekä transistorien kasvattaminen muistisoluissa osoitetaan tehokkaiksi vastatoimiksi Near- Threshold Computing -tekniikan huonoja puolia vastaan. Tulokset antavat perusteita matalan energiankulutuksen IC-piirien suunnittelussa sille, kannattaako käyttää normaalia käyttöjännitettä, vai laskea sitä, jolloin piirin hidastuminen ja epävarmempi käyttäytyminen pitää ottaa huomioon.
Resumo:
At the present work the bifurcational behaviour of the solutions of Rayleigh equation and corresponding spatially distributed system is being analysed. The conditions of oscillatory and monotonic loss of stability are obtained. In the case of oscillatory loss of stability, the analysis of linear spectral problem is being performed. For nonlinear problem, recurrent formulas for the general term of the asymptotic approximation of the self-oscillations are found, the stability of the periodic mode is analysed. Lyapunov-Schmidt method is being used for asymptotic approximation. The correlation between periodic solutions of ODE and PDE is being investigated. The influence of the diffusion on the frequency of self-oscillations is being analysed. Several numerical experiments are being performed in order to support theoretical findings.
Resumo:
In this thesis the bifurcational behavior of the solutions of Langford system is analysed. The equilibriums of the Langford system are found, and the stability of equilibriums is discussed. The conditions of loss of stability are found. The periodic solution of the system is approximated. We consider three types of boundary condition for Langford spatially distributed system: Neumann conditions, Dirichlet conditions and Neumann conditions with additional requirement of zero average. We apply the Lyapunov-Schmidt method to Langford spatially distributed system for asymptotic approximation of the periodic mode. We analyse the influence of the diffusion on the behavior of self-oscillations. As well in the present work we perform numerical experiments and compare it with the analytical results.
Resumo:
In accordance with the Moore's law, the increasing number of on-chip integrated transistors has enabled modern computing platforms with not only higher processing power but also more affordable prices. As a result, these platforms, including portable devices, work stations and data centres, are becoming an inevitable part of the human society. However, with the demand for portability and raising cost of power, energy efficiency has emerged to be a major concern for modern computing platforms. As the complexity of on-chip systems increases, Network-on-Chip (NoC) has been proved as an efficient communication architecture which can further improve system performances and scalability while reducing the design cost. Therefore, in this thesis, we study and propose energy optimization approaches based on NoC architecture, with special focuses on the following aspects. As the architectural trend of future computing platforms, 3D systems have many bene ts including higher integration density, smaller footprint, heterogeneous integration, etc. Moreover, 3D technology can signi cantly improve the network communication and effectively avoid long wirings, and therefore, provide higher system performance and energy efficiency. With the dynamic nature of on-chip communication in large scale NoC based systems, run-time system optimization is of crucial importance in order to achieve higher system reliability and essentially energy efficiency. In this thesis, we propose an agent based system design approach where agents are on-chip components which monitor and control system parameters such as supply voltage, operating frequency, etc. With this approach, we have analysed the implementation alternatives for dynamic voltage and frequency scaling and power gating techniques at different granularity, which reduce both dynamic and leakage energy consumption. Topologies, being one of the key factors for NoCs, are also explored for energy saving purpose. A Honeycomb NoC architecture is proposed in this thesis with turn-model based deadlock-free routing algorithms. Our analysis and simulation based evaluation show that Honeycomb NoCs outperform their Mesh based counterparts in terms of network cost, system performance as well as energy efficiency.