14 resultados para Foundations Computer programs

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Over 70% of the total costs of an end product are consequences of decisions that are made during the design process. A search for optimal cross-sections will often have only a marginal effect on the amount of material used if the geometry of a structure is fixed and if the cross-sectional characteristics of its elements are property designed by conventional methods. In recent years, optimalgeometry has become a central area of research in the automated design of structures. It is generally accepted that no single optimisation algorithm is suitable for all engineering design problems. An appropriate algorithm, therefore, mustbe selected individually for each optimisation situation. Modelling is the mosttime consuming phase in the optimisation of steel and metal structures. In thisresearch, the goal was to develop a method and computer program, which reduces the modelling and optimisation time for structural design. The program needed anoptimisation algorithm that is suitable for various engineering design problems. Because Finite Element modelling is commonly used in the design of steel and metal structures, the interaction between a finite element tool and optimisation tool needed a practical solution. The developed method and computer programs were tested with standard optimisation tests and practical design optimisation cases. Three generations of computer programs are developed. The programs combine anoptimisation problem modelling tool and FE-modelling program using three alternate methdos. The modelling and optimisation was demonstrated in the design of a new boom construction and steel structures of flat and ridge roofs. This thesis demonstrates that the most time consuming modelling time is significantly reduced. Modelling errors are reduced and the results are more reliable. A new selection rule for the evolution algorithm, which eliminates the need for constraint weight factors is tested with optimisation cases of the steel structures that include hundreds of constraints. It is seen that the tested algorithm can be used nearly as a black box without parameter settings and penalty factors of the constraints.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Java™ 2 Platform, Micro Edition on eräs johtava sovellusalusta, joka mahdollistaa kolmannen osapuolen sovellusten luomisen matkapuhelimiin, kommunikaattoreihin ja taskutietokoneisiin. Java-alusta keskeinen etu on sovellusten dynaaminen asentaminen. Käyttäjä ei ole rajoitettu esiasennettuihin sovelluksiin vaan voi asentaa niitä itse tarpeen mukaan. Tämän diplomityö käsittelee erilaisia Java sovellusten (MIDlettien) lataus ja asennusmenetelmiä. Diplomityö antaa yhteenvedon merkittävimmistä asennus teknologioista. Pääpaino on MIDP-standardin mukaisella langattomalle asennuksella (Over-The-Air provisioning) sillä se on kaikkein laajimmin käytetty menetelmä. Muita käsiteltäviä menetelmiä ovat WAP Push ja paikallinen asennus Bluetoothin ja Infrapunalinkin avulla. MIDletit, kuten mitkä tahansa ohjelmat, ovat alttiita laittomalle kopioinnille. Tämä diplomityö kuvaa menetelmiä, joilla laiton kopiointi voidaan estää. Yksi esimerkki on OMA™ DRM standardi. Diplomityö kuvaa myös kuinka kopiointisuojaus voidaan yhdistää olemassa oleviin asennusmenetelmiin. Java sovelluksia, MIDlettejä, käytetään yhä erilaisimpiin tarkoituksiin jolloin tarvitaan myös uusia asennusmenetelmiä. Yksi tällainen menetelmä on asentaminen erillisistä laitteista. Diplomityö kuvaa useita menetelmiä asentamiseen erillisistä laitteista. Käsitellyr menetelmät pohjautuvat Bluetooth teknologiaan ja yhtä lukuun ottamatta perustuvat standardin määrittelemiin Bluetooth profiileihin File Transfer Profile, Personal Area Networking Profile ja Object Push Profile. Toinen asennustapa on sovellusten edelleen lähettäminen toiseen puhelimeen. Diplomityö kuvaa kuinka OMA DRM standardi voidaan yhdistää tällaisen asennuksen ja ehdottaa kahta vaihtoehtoista menetelmää. Yksi perustuu Bluetoothin Object Push Profiiliin ja toinen Infrapunalinkin käyttöön. Toinen perustuu multimediaviestiin ja sähköpostiin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkielmassa analysoitiin yhteensä 73:n teknisen analyysin menetelmävariaation ja samalta ajanjaksolta lasketun osta ja pidä -strategian tuottojen eroja aineistolla, joka koostui 43 Helsingin Arvopaperipörssin päälistalla vuodesta 1991 vuoteen 1998 noteeratun yhtiön osakkeiden päivän päätöskursseista. Empiiriset testit toteutettiin tutkielmaa varten laadituilla Pascal-ohjelmilla, joilla simuloitiin eri teknisen analyysin menetelmien mukaista päivittäistä kaupankäyntiä. Tulokset osoittivat, ettei teknisen analyysin menetelmien avulla olisi tarkasteluperiodilla päässyt osta ja pidä -strategian tuottotasolle, sillä ainoastaan yksi strategioista ylitti osta ja pidä -strategian tuottotason. Negatiivinen korrelaatio kunkin teknisen analyysin menetelmän tuottamien kauppojen lukumäärän ja strategian kannattavuuden välillä oli erittäin vahva; mitä suurempi signaaliherkkyys, sitä heikompi oli kyseisen strategian tulos. Tutkimustulokset tukivat siten markkinatehokkuuden heikkojen ehtojen hypoteesia, jonka mukaan mennyt hintainformaatio ei ole monetäärisesti hyödynnettävissä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This work presents new, efficient Markov chain Monte Carlo (MCMC) simulation methods for statistical analysis in various modelling applications. When using MCMC methods, the model is simulated repeatedly to explore the probability distribution describing the uncertainties in model parameters and predictions. In adaptive MCMC methods based on the Metropolis-Hastings algorithm, the proposal distribution needed by the algorithm learns from the target distribution as the simulation proceeds. Adaptive MCMC methods have been subject of intensive research lately, as they open a way for essentially easier use of the methodology. The lack of user-friendly computer programs has been a main obstacle for wider acceptance of the methods. This work provides two new adaptive MCMC methods: DRAM and AARJ. The DRAM method has been built especially to work in high dimensional and non-linear problems. The AARJ method is an extension to DRAM for model selection problems, where the mathematical formulation of the model is uncertain and we want simultaneously to fit several different models to the same observations. The methods were developed while keeping in mind the needs of modelling applications typical in environmental sciences. The development work has been pursued while working with several application projects. The applications presented in this work are: a winter time oxygen concentration model for Lake Tuusulanjärvi and adaptive control of the aerator; a nutrition model for Lake Pyhäjärvi and lake management planning; validation of the algorithms of the GOMOS ozone remote sensing instrument on board the Envisat satellite of European Space Agency and the study of the effects of aerosol model selection on the GOMOS algorithm.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tietokoneohjelmaa suojataan tekijänoikeudella, liikesalaisuussuojalla ja patentilla. Jotta ohjelmistoalan yritys pärjäisi dynaamisilla ja kansainvälisillä ohjelmistomarkkinoilla sen pitää patentoida ohjelmansa sekä hyödyntää ja puolustaa patenttejaan. Ohjelmistopatentteja myönnetään myös Euroopassa yhä enemmän. Ohjelmistoteollisuudessa tuotekehitys perustuu usein jo olemassa olevalle, josta aiheutuu alalle tyypillistä teknologioiden päällekkäisyyttä. Jotta yritys pystyisi toimimaan tietyllä markkina-alueella, se saattaa tarvita sellaista teknologiaa joka on jo jonkun patentoimaa. Edellä mainituista syistä sekä ohjelmistopatenttien samanlaisuuksista ja patenttien suuresta määrästä johtuen patentinloukkauksia tapahtuu ja niihin tulee reagoida liikesuhteet huomioon ottaen, esimerkiksi neuvottelemalla liiketoimintasopimuksesta, sovittelemalla konfliktia sovittelumenettelyssä ja tarvittaessa oikeudellisin keinoin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The computer is a useful tool in the teaching of upper secondary school physics, and should not have a subordinate role in students' learning process. However, computers and computer-based tools are often not available when they could serve their purpose best in the ongoing teaching. Another problem is the fact that commercially available tools are not usable in the way the teacher wants. The aim of this thesis was to try out a novel teaching scenario in a complicated subject in physics, electrodynamics. The didactic engineering of the thesis consisted of developing a computer-based simulation and training material, implementing the tool in physics teaching and investigating its effectiveness in the learning process. The design-based research method, didactic engineering (Artigue, 1994), which is based on the theoryof didactical situations (Brousseau, 1997), was used as a frame of reference for the design of this type of teaching product. In designing the simulation tool a general spreadsheet program was used. The design was based on parallel, dynamic representations of the physics behind the function of an AC series circuit in both graphical and numerical form. The tool, which was furnished with possibilities to control the representations in an interactive way, was hypothesized to activate the students and promote the effectiveness of their learning. An effect variable was constructed in order to measure the students' and teachers' conceptions of learning effectiveness. The empirical study was twofold. Twelve physics students, who attended a course in electrodynamics in an upper secondary school, participated in a class experiment with the computer-based tool implemented in three modes of didactical situations: practice, concept introduction and assessment. The main goal of the didactical situations was to have students solve problems and study the function of AC series circuits, taking responsibility for theirown learning process. In the teacher study eighteen Swedish speaking physics teachers evaluated the didactic potential of the computer-based tool and the accompanying paper-based material without using them in their physics teaching. Quantitative and qualitative data were collected using questionnaires, observations and interviews. The result of the studies showed that both the group of students and the teachers had generally positive conceptions of learning effectiveness. The students' conceptions were more positive in the practice situation than in the concept introduction situation, a setting that was more explorative. However, it turned out that the students' conceptions were also positive in the more complex assessment situation. This had not been hypothesized. A deeper analysis of data from observations and interviews showed that one of the students in each pair was more active than the other, taking more initiative and more responsibilityfor the student-student and student-computer interaction. These active studentshad strong, positive conceptions of learning effectiveness in each of the threedidactical situations. The group of less active students had a weak but positive conception in the first iv two situations, but a negative conception in the assessment situation, thus corroborating the hypothesis ad hoc. The teacher study revealed that computers were seldom used in physics teaching and that computer programs were in short supply. The use of a computer was considered time-consuming. As long as physics teaching with computer-based tools has to take place in special computer rooms, the use of such tools will remain limited. The affordance is enhanced when the physical dimensions as well as the performance of the computer are optimised. As a consequence, the computer then becomes a real learning tool for each pair of students, smoothly integrated into the ongoing teaching in the same space where teaching normally takes place. With more interactive support from the teacher, the computer-based parallel, dynamic representations will be efficient in promoting the learning process of the students with focus on qualitative reasoning - an often neglected part of the learning process of the students in upper secondary school physics.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Formal methods provide a means of reasoning about computer programs in order to prove correctness criteria. One subtype of formal methods is based on the weakest precondition predicate transformer semantics and uses guarded commands as the basic modelling construct. Examples of such formalisms are Action Systems and Event-B. Guarded commands can intuitively be understood as actions that may be triggered when an associated guard condition holds. Guarded commands whose guards hold are nondeterministically chosen for execution, but no further control flow is present by default. Such a modelling approach is convenient for proving correctness, and the Refinement Calculus allows for a stepwise development method. It also has a parallel interpretation facilitating development of concurrent software, and it is suitable for describing event-driven scenarios. However, for many application areas, the execution paradigm traditionally used comprises more explicit control flow, which constitutes an obstacle for using the above mentioned formal methods. In this thesis, we study how guarded command based modelling approaches can be conveniently and efficiently scheduled in different scenarios. We first focus on the modelling of trust for transactions in a social networking setting. Due to the event-based nature of the scenario, the use of guarded commands turns out to be relatively straightforward. We continue by studying modelling of concurrent software, with particular focus on compute-intensive scenarios. We go from theoretical considerations to the feasibility of implementation by evaluating the performance and scalability of executing a case study model in parallel using automatic scheduling performed by a dedicated scheduler. Finally, we propose a more explicit and non-centralised approach in which the flow of each task is controlled by a schedule of its own. The schedules are expressed in a dedicated scheduling language, and patterns assist the developer in proving correctness of the scheduled model with respect to the original one.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkimuksen tavoitteena oli tutkia KIBS-yrityksen diskurssien vaikutusta kyseisen yrityksen palveluinnovaatioprosessin johtamiseen. Kontekstina tässä työssä oli tilitoimisto, jota verrattiin tutkimuksen muihin KIBS-yrityksiin. Tutkimusmenetelmänä käytettiin haastattelua ja analyysikeinona diskurssianalyysiä. Tutkimuksen tulokset osoittavat, että tilitoimiston diskursseissa luotetaan vahvasti tietotekniikan ja koulutuksen voimaan palveluinnovaatioiden kehittämisessä. Innovaatiojohtamisessa tämä voi merkitä näkökentän kaventumista. Tilitoimistossa havaittuja innovaation kannustimia olivat esimerkiksi työn itsenäisyys. Tilitoimistossa palveluinnovaatioita esti liiallinen kiire. Tilitoimiston diskurssien kautta ilmenevä palveluinnovaatioprosessin johtaminen oli melko kehittymätöntä verrattuna tutkimuksen innovatiivisimpaan yritykseen, joka suunnitteli taloteknisiä ohjelmistoja.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Parin viime vuosikymmenen aikana on kehitetty huomattavasti entistä lujempia teräslaatuja, joiden käyttö ei kuitenkaan ole yleistynyt läheskään samaan tahtiin. Korkeamman hinnan lisäksi yksi merkittävä syy tähän on, että suunnittelijoilla ei usein ole riittäviä tietoja siitä, millaisissa tilanteissa lujemman teräslaadun käytöstä on merkittävää hyötyä. Tilannetta ei myöskään helpota se, että käytössä olevat standardit eivät tarjoa lainkaan ohjeistusta kaikkein lujimpien, myötörajaltaan yli 700MPa terästen käyttöön ja mitoitukseen. Tässä työssä pyritään tarjoamaan suunnittelijalle ohjeita ja nyrkkisääntöjä sopivan lujuusluokan ja profiilin valintaan sekä yleisesti lujempien teräslaatujen käyttöön. Lujemman teräslaadun käytöllä voidaan keventää suunniteltavaa rakennetta ja saada aikaan huomattavia painonsäästöjä. Usein ongelmaksi nousevat kuitenkin stabiiliuskriteerit, sillä teräksen lommahduskestävyys määräytyy suuresti sen lujuusluokasta siten, että mitä lujempaa teräs on, sitä helpommin se lommahtaa. Kun tämä yhdistetään siihen, että lujempaa terästä käytettäessä rakenteesta tulee optimoituna muutenkin pienempi ja kevyempi, kasvaa näiden kahden asian yhteisvaikutuksena kantokyvyn mukaan mitoitetun rakenteen taipuma korkeampiin lujuusluokkiin edetessä hyvin nopeasti sallittujen rajojen yli. Työssä etsitään siksi keinoja sopivan kompromissin löytämiseksi lujuuden ja jäykkyyden välille. Koska muotoilulla ja poikkileikkauksella on suuri merkitys sekä taipuman että stabiliteetin kannalta, tutkitaan erilaisia poikkileikkausvaihtoehtoja ja etsitään optimaalista poikkileikkausta taivutuspalkille matemaattisen optimointimallin avulla. Kun eri poikkileikkausvaihtoehdot on käsitelty ja optimoitu taivutuksen suhteen, tutkitaan poikkileikkauksia myös muissa kuormitustapauksissa. Huomattavan raskaan laskentatyön takia apuna käytetään Matlab-ohjelmistoa itse optimointiin ja Femap-ohjelmaa muiden kuormitustapausten tutkimiseen ja tulosten verifioitiin.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kilpailulliset tekijät ovat johtaneet paperin valmistajat miettimään keinoja valmistuskustannusten leikkaamiseksi. Yksi keino on optimoida raaka-aineiden käyttöä, jota on tehty tässä diplomityössä. Työn tarkoitus on selvittää koeajoin mahdollisuudet kalliimpien raaka-aineiden korvaamiseen edullisemmilla, säilyttäen kuitenkin pohjapaperin laadulliset ominaisuudet. Työ on toteutettu UPM Kymmene Oyj:n Jokilaakson tehtailla, Jämsänkosken paperitehtaan Tarrapaperit-osastolla. Työssä on käytetty apuna tietokoneohjelmia mallintamaan ja simuloimaan paperissa ja paperin kustannusrakenteessa tapahtuvia muutoksia, mutta merkittävimmässä asemassa ovat olleet koeajot ja erilaisten näytteiden käsittely. Raaka-aineina käytettävien massojen osuuksien optimoinnilla on saatu aikaiseksi merkittäviä kustannussäästöjä, mutta työn yhteydessä on löydetty myös keinoja säästöjen saavuttamiseksi energiankulutusta järkevöittämällä. Luotu malli auttaa jatkossa kustannusrakenteen seurannassa. Mäntysellun osuuden laskulla ja täyteaineen osuuden nostolla saavutetaan merkittävimmät kustannussäästöt, kemihierteellä vaikutus kustannuksiin on vähäisempi. Sähköenergiaa vievä kuitujen jauhatus on järjestetty paperikone 3:lla uudella tavalla, jolla on paitsi saavutettu säästöä energiassa, parannettu myös paperin lujuutta.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Symbolic dynamics is a branch of mathematics that studies the structure of infinite sequences of symbols, or in the multidimensional case, infinite grids of symbols. Classes of such sequences and grids defined by collections of forbidden patterns are called subshifts, and subshifts of finite type are defined by finitely many forbidden patterns. The simplest examples of multidimensional subshifts are sets of Wang tilings, infinite arrangements of square tiles with colored edges, where adjacent edges must have the same color. Multidimensional symbolic dynamics has strong connections to computability theory, since most of the basic properties of subshifts cannot be recognized by computer programs, but are instead characterized by some higher-level notion of computability. This dissertation focuses on the structure of multidimensional subshifts, and the ways in which it relates to their computational properties. In the first part, we study the subpattern posets and Cantor-Bendixson ranks of countable subshifts of finite type, which can be seen as measures of their structural complexity. We show, by explicitly constructing subshifts with the desired properties, that both notions are essentially restricted only by computability conditions. In the second part of the dissertation, we study different methods of defining (classes of ) multidimensional subshifts, and how they relate to each other and existing methods. We present definitions that use monadic second-order logic, a more restricted kind of logical quantification called quantifier extension, and multi-headed finite state machines. Two of the definitions give rise to hierarchies of subshift classes, which are a priori infinite, but which we show to collapse into finitely many levels. The quantifier extension provides insight to the somewhat mysterious class of multidimensional sofic subshifts, since we prove a characterization for the class of subshifts that can extend a sofic subshift into a nonsofic one.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Memristori on yksi elektroniikan peruskomponenteista vastuksen, kondensaattorin ja kelan lisäksi. Se on passiivinen komponentti, jonka teorian kehitti Leon Chua vuonna 1971. Kesti kuitenkin yli kolmekymmentä vuotta ennen kuin teoria pystyttiin yhdistämään kokeellisiin tuloksiin. Vuonna 2008 Hewlett Packard julkaisi artikkelin, jossa he väittivät valmistaneensa ensimmäisen toimivan memristorin. Memristori eli muistivastus on resistiivinen komponentti, jonka vastusarvoa pystytään muuttamaan. Nimens mukaisesti memristori kykenee myös säilyttämään vastusarvonsa ilman jatkuvaa virtaa ja jännitettä. Tyypillisesti memristorilla on vähintään kaksi vastusarvoa, joista kumpikin pystytään valitsemaan syöttämällä komponentille jännitettä tai virtaa. Tämän vuoksi memristoreita kutsutaankin usein resistiivisiksi kytkimiksi. Resistiivisiä kytkimiä tutkitaan nykyään paljon erityisesti niiden mahdollistaman muistiteknologian takia. Resistiivisistä kytkimistä rakennettua muistia kutsutaan ReRAM-muistiksi (lyhenne sanoista resistive random access memory). ReRAM-muisti on Flash-muistin tapaan haihtumaton muisti, jota voidaan sähköisesti ohjelmoida tai tyhjentää. Flash-muistia käytetään tällä hetkellä esimerkiksi muistitikuissa. ReRAM-muisti mahdollistaa kuitenkin nopeamman ja vähävirtaiseman toiminnan Flashiin verrattuna, joten se on tulevaisuudessa varteenotettava kilpailija markkinoilla. ReRAM-muisti mahdollistaa myös useammin bitin tallentamisen yhteen muistisoluun binäärisen (”0” tai ”1”) toiminnan sijaan. Tyypillisesti ReRAM-muistisolulla on kaksi rajoittavaa vastusarvoa, mutta näiden kahden tilan välille pystytään mahdollisesti ohjelmoimaan useampia tiloja. Muistisoluja voidaan kutsua analogisiksi, jos tilojen määrää ei ole rajoitettu. Analogisilla muistisoluilla olisi mahdollista rakentaa tehokkaasti esimerkiksi neuroverkkoja. Neuroverkoilla pyritään mallintamaan aivojen toimintaa ja suorittamaan tehtäviä, jotka ovat tyypillisesti vaikeita perinteisille tietokoneohjelmille. Neuroverkkoja käytetään esimerkiksi puheentunnistuksessa tai tekoälytoteutuksissa. Tässä diplomityössä tarkastellaan Ta2O5 -perustuvan ReRAM-muistisolun analogista toimintaa pitäen mielessä soveltuvuus neuroverkkoihin. ReRAM-muistisolun valmistus ja mittaustulokset käydään läpi. Muistisolun toiminta on harvoin täysin analogista, koska kahden rajoittavan vastusarvon välillä on usein rajattu määrä tiloja. Tämän vuoksi toimintaa kutsutaan pseudoanalogiseksi. Mittaustulokset osoittavat, että yksittäinen ReRAM-muistisolu kykenee binääriseen toimintaan hyvin. Joiltain osin yksittäinen solu kykenee tallentamaan useampia tiloja, mutta vastusarvoissa on peräkkäisten ohjelmointisyklien välillä suurta vaihtelevuutta, joka hankaloittaa tulkintaa. Valmistettu ReRAM-muistisolu ei sellaisenaan kykene toimimaan pseudoanalogisena muistina, vaan se vaati rinnalleen virtaa rajoittavan komponentin. Myös valmistusprosessin kehittäminen vähentäisi yksittäisen solun toiminnassa esiintyvää varianssia, jolloin sen toiminta muistuttaisi enemmän pseudoanalogista muistia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Programming and mathematics are core areas of computer science (CS) and consequently also important parts of CS education. Introductory instruction in these two topics is, however, not without problems. Studies show that CS students find programming difficult to learn and that teaching mathematical topics to CS novices is challenging. One reason for the latter is the disconnection between mathematics and programming found in many CS curricula, which results in students not seeing the relevance of the subject for their studies. In addition, reports indicate that students' mathematical capability and maturity levels are dropping. The challenges faced when teaching mathematics and programming at CS departments can also be traced back to gaps in students' prior education. In Finland the high school curriculum does not include CS as a subject; instead, focus is on learning to use the computer and its applications as tools. Similarly, many of the mathematics courses emphasize application of formulas, while logic, formalisms and proofs, which are important in CS, are avoided. Consequently, high school graduates are not well prepared for studies in CS. Motivated by these challenges, the goal of the present work is to describe new approaches to teaching mathematics and programming aimed at addressing these issues: Structured derivations is a logic-based approach to teaching mathematics, where formalisms and justifications are made explicit. The aim is to help students become better at communicating their reasoning using mathematical language and logical notation at the same time as they become more confident with formalisms. The Python programming language was originally designed with education in mind, and has a simple syntax compared to many other popular languages. The aim of using it in instruction is to address algorithms and their implementation in a way that allows focus to be put on learning algorithmic thinking and programming instead of on learning a complex syntax. Invariant based programming is a diagrammatic approach to developing programs that are correct by construction. The approach is based on elementary propositional and predicate logic, and makes explicit the underlying mathematical foundations of programming. The aim is also to show how mathematics in general, and logic in particular, can be used to create better programs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Many-core systems are emerging from the need of more computational power and power efficiency. However there are many issues which still revolve around the many-core systems. These systems need specialized software before they can be fully utilized and the hardware itself may differ from the conventional computational systems. To gain efficiency from many-core system, programs need to be parallelized. In many-core systems the cores are small and less powerful than cores used in traditional computing, so running a conventional program is not an efficient option. Also in Network-on-Chip based processors the network might get congested and the cores might work at different speeds. In this thesis is, a dynamic load balancing method is proposed and tested on Intel 48-core Single-Chip Cloud Computer by parallelizing a fault simulator. The maximum speedup is difficult to obtain due to severe bottlenecks in the system. In order to exploit all the available parallelism of the Single-Chip Cloud Computer, a runtime approach capable of dynamically balancing the load during the fault simulation process is used. The proposed dynamic fault simulation approach on the Single-Chip Cloud Computer shows up to 45X speedup compared to a serial fault simulation approach. Many-core systems can draw enormous amounts of power, and if this power is not controlled properly, the system might get damaged. One way to manage power is to set power budget for the system. But if this power is drawn by just few cores of the many, these few cores get extremely hot and might get damaged. Due to increase in power density multiple thermal sensors are deployed on the chip area to provide realtime temperature feedback for thermal management techniques. Thermal sensor accuracy is extremely prone to intra-die process variation and aging phenomena. These factors lead to a situation where thermal sensor values drift from the nominal values. This necessitates efficient calibration techniques to be applied before the sensor values are used. In addition, in modern many-core systems cores have support for dynamic voltage and frequency scaling. Thermal sensors located on cores are sensitive to the core's current voltage level, meaning that dedicated calibration is needed for each voltage level. In this thesis a general-purpose software-based auto-calibration approach is also proposed for thermal sensors to calibrate thermal sensors on different range of voltages.