994 resultados para Hardware Solver


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Metalliset maalipurkit valmistetaan tinalla molemmin puolin päällystetystä pellistä. Tina on terästeollisuudelle haitallinen aine raaka-aineen seassa ja tästä syystä tinapellille on ollut vaikeuksia löytää hyötykäyttäjää. Metallipakkauksien osalta on sitouduttu hyötykäyttötavoitteisiin ja niihin pääsemiseksi tulee kerätä myös tinapeltipakkauksia, koska ne muodostavat huomattavan osan vuosittain käytettävistä metallipakkauksista. Suurilta ammattikäyttäjiltä maalipakkauksia on kerätty jo vuodesta 1998 ja pienkuluttajia varten keräyskokeilu aloitettiin vuoden 1999 alkupuolella. Tämä tutkimus käsittelee kuluttajille suunnattua keräyskokeilua ja tutkimuksen tavoitteena on laatia suosituksia ja ohjeita kuluttajamaalipakkausten keräilyn järjestämiseksi Suomessa. Kokeilua varten perustettiin muutamia keräyspisteitä, ensin Suur-Helsingin alueelle ja myöhemmin myös muualle Etelä-Suomeen. Kaikki perustetut keräyspisteet sijaitsivat maalia myyvän kaupan yhteydessä. Kuluttajat suhtautuivat palautusmahdollisuuteen erittäin myönteisesti ja kokeilussa mukana olevat liikkeet saivat positiivista julkisuutta. Keräyspisteisiin pääsääntöisesti palautetut maalipurkit olivat tyhjiä tai niissä oli vain hieman maalia jäljellä. Kaupoissa sijaitsevien keräyspisteiden lisäksi on tarvetta myös kunnallisille keräyspisteille. Kuusakoski Oy on nykyisin ainoa tinapellin käsittelijä Suomessa. Myös Onni Forsell Oy on kehittelemässä tinapellin käsittelymenetelmää. Kuusakosken murskauskäsittelyn ympäristövaikutukset selvitettiin tutkimuksessa ja tulosten mukaan käsittelyssä syntyvä jäte on kaatopaikkakelpoista. Tinapeltimurskeen hyötykäyttäjää ei Suomesta tällä hetkellä löydy, joten murske viedään ulkomaille hyötykäytettäväksi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Shortening development times of mobile phones are also accelerating the development times of mobile phone software. New features and software components should be partially implemented and tested before the actual hardware is ready. This brings challenges to software development and testing environments, especially on the user interface side. New features should be able to be tested in an environment, which has a look and feel like a real phone. Simulation environments are used to model real mobile phones. This makes possible to execute software in a mobile phone that does not yet exist. The purpose of this thesis is to integrate Socket Server software component to Series 40 simulation environments on Linux and Windows platforms. Socket Server provides TCP/IP connectivity for applications. All other software and hardware components below Socket Server do not exist in simulation environments. The scope of this work is to clarify how that can be done without connectivity problems, including design, implementation and testing phases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Työssä tutkitaan, kuinka Symbian käyttöjärjestelmälle voidaan tehdä siirrettäviä ohjelmia. Työssä käydään läpi menetelmiä, jotka helpottavat ohjelmistojen siirrettävyyttä uudelle alustalle. Uuteen älypuhelimeen voi tulla monia uusia komponentteja. Laite voi muuttua piiritasolla, käyttöjärjestelmästä voi tulla uusi versio sekä siirrettävästä ohjelmasta voi tulla uusi versio. Kaikki nämä vaikuttavat ohjelman siirrettävyyteen. Työssä tehtiin Java-rajapinnan siirto uudelle alustalle. Prosessin aikana löydettiin tärkeitä tekijöitä, jotka vaikuttavat ohjelmiston siirrettävyyteen. Siirrettävyys sinänsä pitäisi ottaa huomioon ohjelmistoprosessin jokaisessa vaiheessa. Älypuhelimista tulee jatkuvasti uusia versioita. Tämä tekee ohjelmien siirrettävyydestä hyvin tärkeän tekijän ohjelmistojen suunnittelussa. Hyvin suunniteltu ohjelma on helpompi ylläpitää, päivättää ja siirtää myöhemmin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Markkinasegmentointi nousi esiin ensi kerran jo 50-luvulla ja se on ollut siitä lähtien yksi markkinoinnin peruskäsitteistä. Suuri osa segmentointia käsittelevästä tutkimuksesta on kuitenkin keskittynyt kuluttajamarkkinoiden segmentointiin yritys- ja teollisuusmarkkinoiden segmentoinnin jäädessä vähemmälle huomiolle. Tämän tutkimuksen tavoitteena on luoda segmentointimalli teollismarkkinoille tietotekniikan tuotteiden ja palveluiden tarjoajan näkökulmasta. Tarkoituksena on selvittää mahdollistavatko case-yrityksen nykyiset asiakastietokannat tehokkaan segmentoinnin, selvittää sopivat segmentointikriteerit sekä arvioida tulisiko tietokantoja kehittää ja kuinka niitä tulisi kehittää tehokkaamman segmentoinnin mahdollistamiseksi. Tarkoitus on luoda yksi malli eri liiketoimintayksiköille yhteisesti. Näin ollen eri yksiköiden tavoitteet tulee ottaa huomioon eturistiriitojen välttämiseksi. Tutkimusmetodologia on tapaustutkimus. Lähteinä tutkimuksessa käytettiin sekundäärisiä lähteitä sekä primäärejä lähteitä kuten case-yrityksen omia tietokantoja sekä haastatteluita. Tutkimuksen lähtökohtana oli tutkimusongelma: Voiko tietokantoihin perustuvaa segmentointia käyttää kannattavaan asiakassuhdejohtamiseen PK-yritys sektorilla? Tavoitteena on luoda segmentointimalli, joka hyödyntää tietokannoissa olevia tietoja tinkimättä kuitenkaan tehokkaan ja kannattavan segmentoinnin ehdoista. Teoriaosa tutkii segmentointia yleensä painottuen kuitenkin teolliseen markkinasegmentointiin. Tarkoituksena on luoda selkeä kuva erilaisista lähestymistavoista aiheeseen ja syventää näkemystä tärkeimpien teorioiden osalta. Tietokantojen analysointi osoitti selviä puutteita asiakastiedoissa. Peruskontaktitiedot löytyvät mutta segmentointia varten tietoa on erittäin rajoitetusti. Tietojen saantia jälleenmyyjiltä ja tukkureilta tulisi parantaa loppuasiakastietojen saannin takia. Segmentointi nykyisten tietojen varassa perustuu lähinnä sekundäärisiin tietoihin kuten toimialaan ja yrityskokoon. Näitäkään tietoja ei ole saatavilla kaikkien tietokannassa olevien yritysten kohdalta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexto Una central nuclear, al igual que cualquier otro tipo de central generadora de energía eléctrica, mediante turbinas de vapor, está basada en un proceso termodinámico. El rendimiento de las mismas es función del salto entálpico del vapor, para mejorarlo las centrales están constituidas por un ciclo compound formado por turbina de alta presión y turbinas de baja presión, y un ciclo regenerativo consistente en calentar el agua de alimentación antes de su introducción a los generadores de vapor. Un ciclo regenerativo está basado en etapas de calentadores o cambiadores de calor para aprovechar al máximo la energía térmica del vapor, este proyecto está basado en la mejora y optimización del proceso de control de estos para contribuir a mejorar el rendimiento de la central. Objetivo Implementar un sistema de control que nos permita modernizar los clásicos sistemas basados en controles locales y comunicaciones analógicas. Mejorar el rendimiento del ciclo regenerativo de la central, aprovechando las mejoras tecnológicas que ofrece el mercado, tanto en el hardware como en el software de los sistemas de instrumentación y control. Optimizar el rendimiento de los lazos de control de cada uno de los elementos del ciclo regenerativo mediante estrategias de control. Procedimiento Desarrollo de un sistema de control actualizado considerando, como premisa principal, la fiabilidad del sistema, el análisis de fallos y la jerarquización del riesgo. Análisis y cálculo de los lazos de control considerando las premisas establecidas. Configuración de los lazos mediante estrategias de control que nos permitan optimizar y minimizar los efectos del fallo. Para ello se han utilizado parámetros y datos extraídos de la Central Nuclear de Ascó. Conclusiones Se ha modernizado y optimizado el sistema de control mejorando el rendimiento del ciclo regenerativo. Se ha conseguido un sistema más fiable, reduciendo el riesgo del fallo y disminuyendo los efectos de los mismos. El coste de un proyecto de estas características es inferior al de un sistema convencional y ofrece más posibilidades. Es un sistema abierto que permite utilizar e interconectar equipos de diferentes fabricantes, lo que favorece tanto el mantenimiento como las posibles ampliaciones futuras del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis presents the design and implementation of a GPS-signal source suitable for receiver measurements. The developed signal source is based on direct digital synthesis which generates the intermediate frequency. The intermediate frequency is transfered to the final frequency with the aid of an Inphase/Quadrature modulator. The modulating GPS-data was generated with MATLAB. The signal source was duplicated to form a multi channel source. It was shown that, GPS-signals ment for civil navigation are easy to generate in the laboratory. The hardware does not need to be technically advanced if navigation with high level of accuracy is not needed. It was also shown that, the Inphase/Quadrature modulator can function as a single side band upconverter even with a high intermediate frequency. This concept reduces the demands required for output filtering.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet-palvelujen määrä kasvaa jatkuvasti. Henkilöllä on yleensä yksi sähköinen identiteetti jokaisessa käyttämässään palvelussa. Autentikointitunnusten turvallinen säilytys käy yhä vaikeammaksi, kun niitä kertyy yhdet jokaisesta uudesta palvelurekisteröitymisestä. Tämä diplomityö tarkastelee ongelmaa ja ratkaisuja sekä palvelulähtöisestä että teknisestä näkökulmasta. Palvelulähtöisen identiteetinhallinnan liiketoimintakonsepti ja toteutustekniikat – kuten single sign-on (SSO) ja Security Assertion Markup Language (SAML) – käydään läpi karkeiden esimerkkien avulla sekä tutustuen Nokia Account -hankkeessa tuotetun ratkaisun konseptiin ja teknisiin yksityiskohtiin. Nokia Account -palvelun ensimmäisen version toteutusta analysoidaan lopuksi identiteetinhallintapalveluiden suunnitteluperiaatteita ja vaatimuksia vasten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämä diplomityö käsittelee sääntöpohjaisen verkkoon pääsyn hallinnan (NAC) ratkaisuja arkkitehtonisesta näkökulmasta. Työssä käydään läpi Trusted Computing Groupin, Microsoft Corporationin, Juniper Networksin sekä Cisco Systemsin NAC-ratkaisuja. NAC koostuu joukosta uusia sekä jo olemassa olevia teknologioita, jotka auttavat ennalta määriteltyyn sääntökantaan perustuen hallitsemaan suojattuun verkkoon pyrkivien laitteiden tietoliikenneyhteyksiä. Käyttäjän tunnistamisen lisäksi NAC pystyy rajoittamaan verkkoon pääsyä laitekohtaisten ominaisuuksien perusteella, esimerkiksi virustunnisteisiin ja käyttöjärjestelmäpäivityksiin liittyen ja paikkaamaan tietyin rajoituksin näissä esiintyviä puutteita verkkoon pääsyn sallimiseksi. NAC on verraten uusi käsite, jolta puuttuu tarkka määritelmä. Tästä johtuen nykymarkkinoilla myydään ominaisuuksiltaan puutteellisia tuotteita NAC-nimikkeellä. Standardointi eri valmistajien NAC-komponenttien yhteentoimivuuden takaamiseksi on meneillään, minkä perusteella ratkaisut voidaan jakaa joko avoimia standardeja tai valmistajakohtaisia standardeja noudattaviksi. Esitellyt NAC-ratkaisut noudattavat standardeja joko rajoitetusti tai eivät lainkaan. Mikään läpikäydyistä ratkaisuista ei ole täydellinen NAC, mutta Juniper Networksin ratkaisu nousee niistä potentiaalisimmaksi jatkokehityksen ja -tutkimuksen kohteeksi TietoEnator Processing & Networks Oy:lle. Eräs keskeinen ongelma NAC-konseptissa on työaseman tietoverkolle toimittama mahdollisesti valheellinen tietoturvatarkistuksen tulos, minkä perusteella pääsyä osittain hallitaan. Muun muassa tähän ongelmaan ratkaisuna voisi olla jo nykytietokoneista löytyvä TPM-siru, mikä takaa tiedon oikeellisuuden ja koskemattomuuden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Imaging in neuroscience, clinical research and pharmaceutical trials often employs the 3D magnetisation-prepared rapid gradient-echo (MPRAGE) sequence to obtain structural T1-weighted images with high spatial resolution of the human brain. Typical research and clinical routine MPRAGE protocols with ~1mm isotropic resolution require data acquisition time in the range of 5-10min and often use only moderate two-fold acceleration factor for parallel imaging. Recent advances in MRI hardware and acquisition methodology promise improved leverage of the MR signal and more benign artefact properties in particular when employing increased acceleration factors in clinical routine and research. In this study, we examined four variants of a four-fold-accelerated MPRAGE protocol (2D-GRAPPA, CAIPIRINHA, CAIPIRINHA elliptical, and segmented MPRAGE) and compared clinical readings, basic image quality metrics (SNR, CNR), and automated brain tissue segmentation for morphological assessments of brain structures. The results were benchmarked against a widely-used two-fold-accelerated 3T ADNI MPRAGE protocol that served as reference in this study. 22 healthy subjects (age=20-44yrs.) were imaged with all MPRAGE variants in a single session. An experienced reader rated all images of clinically useful image quality. CAIPIRINHA MPRAGE scans were perceived on average to be of identical value for reading as the reference ADNI-2 protocol. SNR and CNR measurements exhibited the theoretically expected performance at the four-fold acceleration. The results of this study demonstrate that the four-fold accelerated protocols introduce systematic biases in the segmentation results of some brain structures compared to the reference ADNI-2 protocol. Furthermore, results suggest that the increased noise levels in the accelerated protocols play an important role in introducing these biases, at least under the present study conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo é apresentar uma técnica recente para a avaliação de obstruções arteriais dos membros inferiores por ressonância magnética em um único momento e com a utilização de dose dupla do meio de contraste paramagnético administrado de forma lenta através de bomba injetora. O método baseia-se em um "software" e "hardware" denominado Mobitrak, disponível nos aparelhos de alto campo de ressonância da Philips, que permite a avaliação de uma grande extensão vascular a partir de aquisições de alta resolução, segmentares e contínuas. A seqüência utilizada é um gradiente eco (FFE) que permite a programação de três segmentos simultaneamente, com pequena sobreposição nas intersecções desses segmentos. Essa seqüência dinâmica é obtida em duas fases, uma previamente ao contraste e outra durante a injeção lenta deste, com subtração do sinal dos tecidos adjacentes e reconstruções em 3D. O método apresenta vários benefícios, como: melhor visualização dos segmentos tibiofibulares, estudo de toda a aorta e o membro inferior em uma única visita do paciente, com baixo volume de meio de contraste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As the development of integrated circuit technology continues to follow Moore’s law the complexity of circuits increases exponentially. Traditional hardware description languages such as VHDL and Verilog are no longer powerful enough to cope with this level of complexity and do not provide facilities for hardware/software codesign. Languages such as SystemC are intended to solve these problems by combining the powerful expression of high level programming languages and hardware oriented facilities of hardware description languages. To fully replace older languages in the desing flow of digital systems SystemC should also be synthesizable. The devices required by modern high speed networks often share the same tight constraints for e.g. size, power consumption and price with embedded systems but have also very demanding real time and quality of service requirements that are difficult to satisfy with general purpose processors. Dedicated hardware blocks of an application specific instruction set processor are one way to combine fast processing speed, energy efficiency, flexibility and relatively low time-to-market. Common features can be identified in the network processing domain making it possible to develop specialized but configurable processor architectures. One such architecture is the TACO which is based on transport triggered architecture. The architecture offers a high degree of parallelism and modularity and greatly simplified instruction decoding. For this M.Sc.(Tech) thesis, a simulation environment for the TACO architecture was developed with SystemC 2.2 using an old version written with SystemC 1.0 as a starting point. The environment enables rapid design space exploration by providing facilities for hw/sw codesign and simulation and an extendable library of automatically configured reusable hardware blocks. Other topics that are covered are the differences between SystemC 1.0 and 2.2 from the viewpoint of hardware modeling, and compilation of a SystemC model into synthesizable VHDL with Celoxica Agility SystemC Compiler. A simulation model for a processor for TCP/IP packet validation was designed and tested as a test case for the environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Testing of a complex software is time consuming. Automated tools are available quite a lot for desktop applications, but for embedded systems a custom-made tool is required Building a complete test framework is a complicated task. Therefore, the test platform was built on top of an already existing tool, CANoe. CANoe is a tool for CAN bus analysis and node simulation. The functionality of CANoe was extended with LabVIEW DLL. The LabVIEW software was used for simulating hardware components of the embedded device As a result of the study, a platform was created where tests could be automated. Of the current test plan, 10 percent were automated and up to 60 percent could be automated with the current functionality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internationalization and the following rapid growth have created the need to concentrate the IT systems of many small-to-medium-sized production companies. Enterprise Resource Planning systems are a common solution for such companies. Deployment of these ERP systems consists of many steps, one of which is the implementation of the same shared system at all international subsidiaries. This is also one of the most important steps in the internationalization strategy of the company from the IT point of view. The mechanical process of creating the required connections for the off-shore sites is the easiest and most well-documented step along the way, but the actual value of the system, once operational, is perceived in its operational reliability. The operational reliability of an ERP system is a combination of many factors. These factors vary from hardware- and connectivity-related issues to administrative tasks and communication between decentralized administrative units and sites. To accurately analyze the operational reliability of such system, one must take into consideration the full functionality of the system. This includes not only the mechanical and systematic processes but also the users and their administration. All operational reliability in an international environment relies heavily on hardware and telecommunication adequacy so it is imperative to have resources dimensioned with regard to planned usage. Still with poorly maintained communication/administration schemes no amount of bandwidth or memory will be enough to maintain a productive level of reliability. This thesis work analyzes the implementation of a shared ERP system to an international subsidiary of a Finnish production company. The system is Microsoft Dynamics Ax, currently being introduced to a Slovakian facility, a subsidiary of Peikko Finland Oy. The primary task is to create a feasible base of analysis against which the operational reliability of the system can be evaluated precisely. With a solid analysis the aim is to give recommendations on how future implementations are to be managed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dixon techniques are part of the methods used to suppress the signal of fat in MRI. They present many advantages compared with other fat suppression techniques including (1) the robustness of fat signal suppression, (2) the possibility to combine these techniques with all types of sequences (gradient echo, spin echo) and different weightings (T1-, T2-, proton density-, intermediate-weighted sequences), and (3) the availability of images both with and without fat suppression from one single acquisition. These advantages have opened many applications in musculoskeletal imaging. We first review the technical aspects of Dixon techniques including their advantages and disadvantages. We then illustrate their applications for the imaging of different body parts, as well as for tumors, neuromuscular disorders, and the imaging of metallic hardware.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

AbstractObjective:To evaluate by magnetic resonance imaging changes in bone marrow of patients undergoing treatment for type I Gaucher’s disease.Materials and Methods:Descriptive, cross-sectional study of Gaucher’s disease patients submitted to 3 T magnetic resonance imaging of femurs and lumbar spine. The images were blindly reviewed and the findings were classified according to the semiquantitative bone marrow burden (BMB) scoring system.Results:All of the seven evaluated patients (three men and four women) presented signs of bone marrow infiltration. Osteonecrosis of the femoral head was found in three patients, Erlenmeyer flask deformity in five, and no patient had vertebral body collapse. The mean BMB score was 11, ranging from 9 to 14.Conclusion:Magnetic resonance imaging is currently the method of choice for assessing bone involvement in Gaucher’s disease in adults due to its high sensitivity to detect both focal and diffuse bone marrow changes, and the BMB score is a simplified method for semiquantitative analysis, without depending on advanced sequences or sophisticated hardware, allowing for the classification of the disease extent and assisting in the treatment monitoring.