957 resultados para Speed up
Resumo:
Diplomityön tavoitteena oli kehittää Dust Control Systems Oy:n nykyistä suunnittelujärjestelmää yrityksen toiminnan laadun ja suunnittelun tehokkuuden parantamiseksi. Suunnittelun suurin pullonkaula on valmistusdokumenttien tuottaminen, joten keskeinen tehtävä oli dokumenttien laadun parantaminen ja tuottamisen nopeuttaminen. Lisäksi tärkeää oli selkeyttää nykyistä nimikkeiden hallintaa ja ylläpitoa. Kehitystyö keskittyi suurelta osin suunnittelujärjestelmän ohjelmistoympäristön päivittämiseen ja sen muokkaamiseen. Teoriaosuudessa käsiteltiin nykyaikaista suunnittelua ja sen kehittämismahdollisuuksia. Lisäksi tarkasteltiin suunnittelun automatisoinnin tuomia hyötyjä sekä erilaisia tuotannon tehostamismenetelmiä. Kehitysosiossa tutkittiin yrityksen nykyistä suunnittelujärjestelmää ja ohjelmistoympäristöä, tuotteiden asettamia vaatimuksia sekä järjestelmän puutteita. Näihin liittyi suuresti yhteistyö henkilöstön sekä ohjelmistotoimittajan kanssa. Tutkimuksen perusteella ryhdyttiin kehittämään uutta järjestelmäkokonaisuutta, johon liitettiin tarvittavia ohjelmistoja ja päivityksiä. Käyttöönottoa varten ohjelmistot konfiguroitiin yrityksen tarpeita vastaaviksi. Työn tuloksena saatiin kehittyneempi ja nykyaikaisempi suunnittelujärjestelmä ja ohjelmistoympäristö. Suunnittelijoiden työtaakkaa saadaan kevennettyä toistuvien työvaiheiden pidemmälle viedyllä automatisoinnilla. Uudistettu ohjelmistoympäristö luo osaltaan ehtoja ja sääntöjä, jotta virheitä syntyy yhä vähemmän. Lisäksi suunnittelun läpimenoaikaa saadaan lyhennettyä parannetulla dokumenttien tuottamisella.
Resumo:
The growing population on earth along with diminishing fossil deposits and the climate change debate calls out for a better utilization of renewable, bio-based materials. In a biorefinery perspective, the renewable biomass is converted into many different products such as fuels, chemicals, and materials, quite similar to the petroleum refinery industry. Since forests cover about one third of the land surface on earth, ligno-cellulosic biomass is the most abundant renewable resource available. The natural first step in a biorefinery is separation and isolation of the different compounds the biomass is comprised of. The major components in wood are cellulose, hemicellulose, and lignin, all of which can be made into various end-products. Today, focus normally lies on utilizing only one component, e.g., the cellulose in the Kraft pulping process. It would be highly desirable to utilize all the different compounds, both from an economical and environmental point of view. The separation process should therefore be optimized. Hemicelluloses can partly be extracted with hot-water prior to pulping. Depending in the severity of the extraction, the hemicelluloses are degraded to various degrees. In order to be able to choose from a variety of different end-products, the hemicelluloses should be as intact as possible after the extraction. The main focus of this work has been on preserving the hemicellulose molar mass throughout the extraction at a high yield by actively controlling the extraction pH at the high temperatures used. Since it has not been possible to measure pH during an extraction due to the high temperatures, the extraction pH has remained a “black box”. Therefore, a high-temperature in-line pH measuring system was developed, validated, and tested for hot-water wood extractions. One crucial step in the measurements is calibration, therefore extensive efforts was put on developing a reliable calibration procedure. Initial extractions with wood showed that the actual extraction pH was ~0.35 pH units higher than previously believed. The measuring system was also equipped with a controller connected to a pump. With this addition it was possible to control the extraction to any desired pH set point. When the pH dropped below the set point, the controller started pumping in alkali and by that the desired set point was maintained very accurately. Analyses of the extracted hemicelluloses showed that less hemicelluloses were extracted at higher pH but with a higher molar-mass. Monomer formation could, at a certain pH level, be completely inhibited. Increasing the temperature, but maintaining a specific pH set point, would speed up the extraction without degrading the molar-mass of the hemicelluloses and thereby intensifying the extraction. The diffusion of the dissolved hemicelluloses from the wood particle is a major part of the extraction process. Therefore, a particle size study ranging from 0.5 mm wood particles to industrial size wood chips was conducted to investigate the internal mass transfer of the hemicelluloses. Unsurprisingly, it showed that hemicelluloses were extracted faster from smaller wood particles than larger although it did not seem to have a substantial effect on the average molar mass of the extracted hemicelluloses. However, smaller particle sizes require more energy to manufacture and thus increases the economic cost. Since bark comprises 10 – 15 % of a tree, it is important to also consider it in a biorefinery concept. Spruce inner and outer bark was hot-water extracted separately to investigate the possibility to isolate the bark hemicelluloses. It was showed that the bark hemicelluloses comprised mostly of pectic material and differed considerably from the wood hemicelluloses. The bark hemicelluloses, or pectins, could be extracted at lower temperatures than the wood hemicelluloses. A chemical characterization, done separately on inner and outer bark, showed that inner bark contained over 10 % stilbene glucosides that could be extracted already at 100 °C with aqueous acetone.
Resumo:
Vuoden 2013 sähkömarkkinalain uudistuksen myötä verkonhaltijoiden tulee varautua suurhäiriötilanteisiin aiempaa tehokkaammin. Lain toimitusvarmuusvaatimusten täyttäminen vaatii sähköverkkoyhtiöiltä entistä suurempia investointimääriä nopeassa aikataulussa. Caruna Oy investoi vuosittain noin 100 miljoonaa euroa säävarman verkon kehittämiseen ja rakentamiseen. Eltel Networks Oy toimii Carunan pääurakoitsijana useissa saneerausprojekteissa muun muassa Satakunnan ja Lounais-Suomen alueilla. Diplomityö tehtiin Eltel Networks Oy:lle ja tavoitteena oli laatia saneeraussuunnitelma Carunan Vahdon keskustan sähkönjakeluverkkoon sekä kehittää Eltelin suunnitteluprosessia Vahdon case-projektin avulla. Nykyverkon ongelmakohdiksi osoittautuivat käyttöikänsä päähän tulleet tai lähivuosina tulevat verkkokomponentit, verkon alhainen nykykäyttöarvo sekä korkeat keskeytyskustannukset. Suunnitellun verkon nykykäyttöarvo yli kaksinkertaistui nykyverkon arvosta, verkon keski-ikä pieneni seitsemällä vuodella ja keskeytyskustannukset pienenivät yli puolella. Case-projektin aikana suunnitteluprosessissa ilmeni useita kehityskohteita. Esimerkiksi kartta-aineistoja ja ilmakuvia kannattaisi hyödyntää monipuolisemmin suunnittelussa ja ohjemuutosten täytäntöönpanoajankohta tulisi määrittää ohjeen tärkeyden mukaan. Vierekkäisille suunnitteluprojekteille kannattaa hakea jatkossa esimerkiksi yhteiset ELY- ja AVI-luvat erillisten lupahakemusten sijaan, koska se vähentää suunnittelijoiden työmäärää ja nopeuttaa hakuprosessia. Suunnittelijoiden yhteistyötä kannattaa laajentaa niin lupahakemusten, sopimusten laadinnan kuin koko prosessin kattavaksi, koska yhteistyö vähentää virheiden määrää ja nopeuttaa suunnitteluprosessia. Yhteistyöllä suunnittelu voidaan toteuttaa nopeammin laadusta tinkimättä.
Resumo:
Tässä työssä testattiin partikkelikokojakaumien analysoinnissa käytettävää kuvankäsittelyohjelmaa INCA Feature. Partikkelikokojakaumat määritettiin elektronimikroskooppikuvista INCA Feature ohjelmaa käyttäen partikkeleiden projektiokuvista päällystyspigmenttinä käytettävälle talkille ja kahdelle eri karbonaattilaadulle. Lisäksi määritettiin partikkelikokojakaumat suodatuksessa ja puhdistuksessa apuaineina käytettäville piidioksidi- ja alumiinioksidihiukkasille. Kuvankäsittelyohjelmalla määritettyjä partikkelikokojakaumia verrattiin partikkelin laskeutumisnopeuteen eli sedimentaatioon perustuvalla SediGraph 5100 analysaattorilla ja laserdiffraktioon perustuvalla Coulter LS 230 menetelmällä analysoituihin partikkelikokojakaumiin. SediGraph 5100 ja kuva-analyysiohjelma antoivat talkkipartikkelien kokojakaumalle hyvin samankaltaisen keskiarvon. Sen sijaan Coulter LS 230 laitteen antama kokojakauman keskiarvo poikkesi edellisistä. Kaikki vertailussa olleet partikkelikokojakaumamenetelmät asettivat eri näytteiden partikkelit samaan kokojärjestykseen. Kuitenkaan menetelmien tuloksia ei voida numeerisesti verrata toisiinsa, sillä kaikissa käytetyissä analyysimenetelmissä partikkelikoon mittaus perustuu partikkelin eri ominaisuuteen. Työn perusteella kaikki testatut analyysimenetelmät soveltuvat paperipigmenttien partikkelikokojakaumien määrittämiseen. Tässä työssä selvitettiin myös kuva-analyysiin tarvittava partikkelien lukumäärä, jolla analyysitulos on luotettava. Työssä todettiin, että analysoitavien partikkelien lukumäärän tulee olla vähintään 300 partikkelia. Liian suuri näytemäärä lisää kokojakauman hajontaa ja pidentää analyysiin käytettyä aikaa useaan tuntiin. Näytteenkäsittely vaatii vielä lisää tutkimuksia, sillä se on tärkein ja kriittisin vaihe SEM ja kuva-analyysiohjelmalla tehtävää partikkelikokoanalyysiä. Automaattisten mikroskooppien yleistyminen helpottaa ja nopeuttaa analyysien tekoa, jolloin menetelmän suosio tulee kasvamaan myös paperipigmenttien tutkimuksessa. Laitteiden korkea hinta ja käyttäjältä vaadittava eritysosaaminen tulevat rajaamaan käytön ainakin toistaiseksi tutkimuslaitoksiin.
Resumo:
Tämän diplomityön tavoitteena oli selvittää hyödyttääkö Stora Enso Metsää tietojärjestelmien siirto perinteisistä konesalipalveluista pilvipalveluihin. Stora Enso Metsällä on paljon erilaisia suunnitteluun liittyviä eräajoja. Joitakin niistä ajetaan vain muutamia kertoja vuodessa kuten tehtaiden puuntarve, toisia muutaman kerran kuussa kuten kuljetusten malliajot tai muutaman kerran viikossa ajettava korjuun suunnittelu. Niissä tapauksissa palvelimet voidaan käynnistää erikseen ja käyttää niitä vain silloin, kun niitä oikeasti tarvitaan. Työn lopputuloksena havaittiin, että pilvipalveluiden käyttöönotto tuo kustannussäästöjä ja palveluiden hallintaan joustavuutta. Itsepalveluna toteutettuna palvelimia voidaan hallinnoida joustavasti kustannusten säästämiseksi. Pilvipalveluilla voidaan nopeuttaa projektien läpimenoa ja kohdentaa käyttökatkot tarkemmin koska siihen ei välttämättä tarvita toimittajan työtä lainkaan. Loppujen lopuksi asiakkaan on erittäin vaikea tietää kuinka paljon kustannuksia on jaettu eri tavalla eri palvelujen välillä.
Resumo:
Diplomityössä tarkasteltiin Metsä Board Simpeleen voimalaitoksen energiaraportointi kokonaisuutta. Tarkastelun kohteena olivat lämpö-, sähkö- ja polttoaine-energiat. Tarkastelun pääpaino oli energian määritykseen tarvittavissa mittapisteissä sekä niistä muodostuvissa raporteissa. Työn tavoitteena oli saada luotettavat energiaraportit, jotka ovat jaoteltu selkeästi ja johdonmukaisesti. Tavoitteena oli myös vähentää kuukausiraportoinnin muodostamiseen tarvittavaa henkilötyöaikaa. Teoriaosuudessa käsitellään yleisesti voimalaitosprosessin toimintaa sekä siinä käytettäviä polttoaineita. Energiataseen muodostamisen perusteita tarkasteltiin voimalaitosprosessin kannalta. Energian määrityksiin käytettävät prosessimittaukset käytiin läpi. Raportointivelvollisuudet selvitettiin, niin tilastokeskuksien, kuin viranomaistenkin suuntaan. Työosuudessa perehdyttiin käytössä oleviin raportointikäytäntöihin sekä raporttipohjiin. Energialaskentayhtälöt ja parametrit tarkastettiin tarvittavilta osin. Työnaikana havaittiin nopeasti, että raportointi muodostetaan pitkälti Microsoft Excel-taulukkolaskentaohjelmiston avulla. Olemassa olevia automatisoituja raportteja ei hyödynnetty ollenkaan, koska niitä pidettiin epäluotettavina. Työn tuloksena automatisoidut kuukausiraportit tarkastettiin, virheet korjattiin ja ne otettiin käyttöön. Automaattisiin raportteihin tehtiin päivitysehdotukset uusista raporttipohjista. Viralliseen kuukausiraportointiin rakennettiin myös kokonaan uudet raportointipohjat, jotka hyödyntävät automaattisesti muodostuvia raportteja. Uudet raporttipohjat nopeuttivat raportointityötä merkittävästi. Polttoaine-energian hallintajärjestelmä todettiin vanhanaikaiseksi ja sen uusimista suositellaan. Uusinnalla raportointityö helpottuisi ja sen avulla siitä saataisiin kattavampi.
Resumo:
Robottiikkatuoteperheeseen kuuluu robottihitsausportaalit, joiden päärunko rakentuu kote-lopalkeista. Koteloprofiilien käyttö on suosittua teollisuuden eri aloilla ja se soveltuu hyvin raskaaseen konepajateollisuuteen. Hitsausrobottiportaalin suunnitteluun liittyy monia eri vaiheita ja valituilla teknisillä ratkaisuilla voidaan vaikuttaa valmistettavan tuotteen hitsin laatuun ja työn onnistumiseen. Hitsausrobottiportaalit ovat usein asiakasräätälöityjä ratkaisuja, jolloin suunnittelutyö sekä valmistusvaihe vaativat runsaasti kapasiteettia. Modulaarisuuden avulla suunnittelu- ja valmistusvaiheita on mahdollista nopeuttaa sekä parantaa tuotteen testausta, huollettavuutta ja laatua. Tässä diplomityössä tutkittiin, miten hitsausrobottiportaalin vaakapuomi käyttäytyy ja taipuu erilaisissa kuormitustilanteissa. Lisäksi työssä määritettiin alkuperäisen koteloprofiilin tilalle uusi optimoitu koteloprofiili sekä tarkasteltiin moduloinnin mahdollistamista robo-tiikkatuoteperheen portaalisovelluksiin.
Resumo:
The prediction of proteins' conformation helps to understand their exhibited functions, allows for modeling and allows for the possible synthesis of the studied protein. Our research is focused on a sub-problem of protein folding known as side-chain packing. Its computational complexity has been proven to be NP-Hard. The motivation behind our study is to offer the scientific community a means to obtain faster conformation approximations for small to large proteins over currently available methods. As the size of proteins increases, current techniques become unusable due to the exponential nature of the problem. We investigated the capabilities of a hybrid genetic algorithm / simulated annealing technique to predict the low-energy conformational states of various sized proteins and to generate statistical distributions of the studied proteins' molecular ensemble for pKa predictions. Our algorithm produced errors to experimental results within .acceptable margins and offered considerable speed up depending on the protein and on the rotameric states' resolution used.
Resumo:
Les cellules sont capables de détecter les distributions spatiales de protéines et ainsi de migrer ou s’étendre dans la direction appropriée. Une compréhension de la réponse cellulaire aux modifications de ces distributions spatiales de protéines est essentielle pour l’avancement des connaissances dans plusieurs domaines de recherches tels que le développement, l’immunologie ou l’oncologie. Un exemple particulièrement complexe est le guidage d’axones se déroulant pendant le développement du système nerveux. Ce dernier nécessite la présence de plusieurs distributions de molécules de guidages étant attractives ou répulsives pour connecter correctement ce réseau complexe qu’est le système nerveux. Puisque plusieurs indices de guidage collaborent, il est particulièrement difficile d’identifier la contribution individuelle ou la voie de signalisation qui est déclenchée in vivo, il est donc nécessaire d’utiliser des méthodes pour reproduire ces distributions de protéines in vitro. Plusieurs méthodes existent pour produire des gradients de protéines solubles ou liées aux substrats. Quelques méthodes pour produire des gradients solubles sont déjà couramment utilisées dans plusieurs laboratoires, mais elles limitent l’étude aux distributions de protéines qui sont normalement sécrétées in vivo. Les méthodes permettant de produire des distributions liées au substrat sont particulièrement complexes, ce qui restreint leur utilisation à quelques laboratoires. Premièrement, nous présentons une méthode simple qui exploite le photoblanchiment de molécules fluorescentes pour créer des motifs de protéines liées au substrat : Laser-assisted protein adsorption by photobleaching (LAPAP). Cette méthode permet de produire des motifs de protéines complexes d’une résolution micrométrique et d’une grande portée dynamique. Une caractérisation de la technique a été faite et en tant que preuve de fonctionnalité, des axones de neurones du ganglion spinal ont été guidés sur des gradients d’un peptide provenant de la laminine. Deuxièmement, LAPAP a été amélioré de manière à pouvoir fabriquer des motifs avec plusieurs composantes grâce à l’utilisation de lasers à différentes longueurs d’onde et d’anticorps conjugués à des fluorophores correspondants à ces longueurs d’onde. De plus, pour accélérer et simplifier le processus de fabrication, nous avons développé LAPAP à illumination à champ large qui utilise un modulateur spatial de lumière, une diode électroluminescente et un microscope standard pour imprimer directement un motif de protéines. Cette méthode est particulièrement simple comparativement à la version originale de LAPAP puisqu’elle n’implique pas le contrôle de la puissance laser et de platines motorisées, mais seulement d’envoyer l’image du motif désiré au modulateur spatial. Finalement, nous avons utilisé LAPAP pour démontrer que notre technique peut être utilisée dans des analyses de haut contenu pour quantifier les changements morphologiques résultant de la croissance neuronale sur des gradients de protéines de guidage. Nous avons produit des milliers de gradients de laminin-1 ayant différentes pentes et analysé les variations au niveau du guidage de neurites provenant d’une lignée cellulaire neuronale (RGC-5). Un algorithme pour analyser les images des cellules sur les gradients a été développé pour détecter chaque cellule et quantifier la position du centroïde du soma ainsi que les angles d’initiation, final et de braquage de chaque neurite. Ces données ont démontré que les gradients de laminine influencent l’angle d’initiation des neurites des RGC-5, mais n’influencent pas leur braquage. Nous croyons que les résultats présentés dans cette thèse faciliteront l’utilisation de motifs de protéines liées au substrat dans les laboratoires des sciences de la vie, puisque LAPAP peut être effectué à l’aide d’un microscope confocal ou d’un microscope standard légèrement modifié. Cela pourrait contribuer à l’augmentation du nombre de laboratoires travaillant sur le guidage avec des gradients liés au substrat afin d’atteindre la masse critique nécessaire à des percées majeures en neuroscience.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
This paper presents a performance analysis of reversible, fault tolerant VLSI implementations of carry select and hybrid decimal adders suitable for multi-digit BCD addition. The designs enable partial parallel processing of all digits that perform high-speed addition in decimal domain. When the number of digits is more than 25 the hybrid decimal adder can operate 5 times faster than conventional decimal adder using classical logic gates. The speed up factor of hybrid adder increases above 10 when the number of decimal digits is more than 25 for reversible logic implementation. Such highspeed decimal adders find applications in real time processors and internet-based applications. The implementations use only reversible conservative Fredkin gates, which make it suitable for VLSI circuits.