989 resultados para data flow diagram


Relevância:

90.00% 90.00%

Publicador:

Resumo:

The miniaturization race in the hardware industry aiming at continuous increasing of transistor density on a die does not bring respective application performance improvements any more. One of the most promising alternatives is to exploit a heterogeneous nature of common applications in hardware. Supported by reconfigurable computation, which has already proved its efficiency in accelerating data intensive applications, this concept promises a breakthrough in contemporary technology development. Memory organization in such heterogeneous reconfigurable architectures becomes very critical. Two primary aspects introduce a sophisticated trade-off. On the one hand, a memory subsystem should provide well organized distributed data structure and guarantee the required data bandwidth. On the other hand, it should hide the heterogeneous hardware structure from the end-user, in order to support feasible high-level programmability of the system. This thesis work explores the heterogeneous reconfigurable hardware architectures and presents possible solutions to cope the problem of memory organization and data structure. By the example of the MORPHEUS heterogeneous platform, the discussion follows the complete design cycle, starting from decision making and justification, until hardware realization. Particular emphasis is made on the methods to support high system performance, meet application requirements, and provide a user-friendly programmer interface. As a result, the research introduces a complete heterogeneous platform enhanced with a hierarchical memory organization, which copes with its task by means of separating computation from communication, providing reconfigurable engines with computation and configuration data, and unification of heterogeneous computational devices using local storage buffers. It is distinguished from the related solutions by distributed data-flow organization, specifically engineered mechanisms to operate with data on local domains, particular communication infrastructure based on Network-on-Chip, and thorough methods to prevent computation and communication stalls. In addition, a novel advanced technique to accelerate memory access was developed and implemented.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Gaia space mission is a major project for the European astronomical community. As challenging as it is, the processing and analysis of the huge data-flow incoming from Gaia is the subject of thorough study and preparatory work by the DPAC (Data Processing and Analysis Consortium), in charge of all aspects of the Gaia data reduction. This PhD Thesis was carried out in the framework of the DPAC, within the team based in Bologna. The task of the Bologna team is to define the calibration model and to build a grid of spectro-photometric standard stars (SPSS) suitable for the absolute flux calibration of the Gaia G-band photometry and the BP/RP spectrophotometry. Such a flux calibration can be performed by repeatedly observing each SPSS during the life-time of the Gaia mission and by comparing the observed Gaia spectra to the spectra obtained by our ground-based observations. Due to both the different observing sites involved and the huge amount of frames expected (≃100000), it is essential to maintain the maximum homogeneity in data quality, acquisition and treatment, and a particular care has to be used to test the capabilities of each telescope/instrument combination (through the “instrument familiarization plan”), to devise methods to keep under control, and eventually to correct for, the typical instrumental effects that can affect the high precision required for the Gaia SPSS grid (a few % with respect to Vega). I contributed to the ground-based survey of Gaia SPSS in many respects: with the observations, the instrument familiarization plan, the data reduction and analysis activities (both photometry and spectroscopy), and to the maintenance of the data archives. However, the field I was personally responsible for was photometry and in particular relative photometry for the production of short-term light curves. In this context I defined and tested a semi-automated pipeline which allows for the pre-reduction of imaging SPSS data and the production of aperture photometry catalogues ready to be used for further analysis. A series of semi-automated quality control criteria are included in the pipeline at various levels, from pre-reduction, to aperture photometry, to light curves production and analysis.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this paper a utilization of the high data-rates channels by threading of sending and receiving is studied. As a communication technology evolves the higher speeds are used more and more in various applications. But generating traffic with Gbps data-rates also brings some complications. Especially if UDP protocol is used and it is necessary to avoid packet fragmentation, for example for high-speed reliable transport protocols based on UDP. For such situation the Ethernet network packet size has to correspond to standard 1500 bytes MTU[1], which is widely used in the Internet. System may not has enough capacity to send messages with necessary rate in a single-threaded mode. A possible solution is to use more threads. It can be efficient on widespread multicore systems. Also the fact that in real network non-constant data flow can be expected brings another object of study –- an automatic adaptation to the traffic which is changing during runtime. Cases investigated in this paper include adjusting number of threads to a given speed and keeping speed on a given rate when CPU gets heavily loaded by other processes while sending data.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Thesis (Master's)--University of Washington, 2016-06

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The speed with which data has moved from being scarce, expensive and valuable, thus justifying detailed and careful verification and analysis to a situation where the streams of detailed data are almost too large to handle has caused a series of shifts to occur. Legal systems already have severe problems keeping up with, or even in touch with, the rate at which unexpected outcomes flow from information technology. The capacity to harness massive quantities of existing data has driven Big Data applications until recently. Now the data flows in real time are rising swiftly, become more invasive and offer monitoring potential that is eagerly sought by commerce and government alike. The ambiguities as to who own this often quite remarkably intrusive personal data need to be resolved – and rapidly - but are likely to encounter rising resistance from industrial and commercial bodies who see this data flow as ‘theirs’. There have been many changes in ICT that has led to stresses in the resolution of the conflicts between IP exploiters and their customers, but this one is of a different scale due to the wide potential for individual customisation of pricing, identification and the rising commercial value of integrated streams of diverse personal data. A new reconciliation between the parties involved is needed. New business models, and a shift in the current confusions over who owns what data into alignments that are in better accord with the community expectations. After all they are the customers, and the emergence of information monopolies needs to be balanced by appropriate consumer/subject rights. This will be a difficult discussion, but one that is needed to realise the great benefits to all that are clearly available if these issues can be positively resolved. The customers need to make these data flow contestable in some form. These Big data flows are only going to grow and become ever more instructive. A better balance is necessary, For the first time these changes are directly affecting governance of democracies, as the very effective micro targeting tools deployed in recent elections have shown. Yet the data gathered is not available to the subjects. This is not a survivable social model. The Private Data Commons needs our help. Businesses and governments exploit big data without regard for issues of legality, data quality, disparate data meanings, and process quality. This often results in poor decisions, with individuals bearing the greatest risk. The threats harbored by big data extend far beyond the individual, however, and call for new legal structures, business processes, and concepts such as a Private Data Commons. This Web extra is the audio part of a video in which author Marcus Wigan expands on his article "Big Data's Big Unintended Consequences" and discusses how businesses and governments exploit big data without regard for issues of legality, data quality, disparate data meanings, and process quality. This often results in poor decisions, with individuals bearing the greatest risk. The threats harbored by big data extend far beyond the individual, however, and call for new legal structures, business processes, and concepts such as a Private Data Commons.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

significant amount of Expendable Bathythermograph (XBT) data has been collected in the Mediterranean Sea since 1999 in the framework of operational oceanography activities. The management and storage of such a volume of data poses significant challenges and opportunities. The SeaDataNet project, a pan-European infrastructure for marine data diffusion, provides a convenient way to avoid dispersion of these temperature vertical profiles and to facilitate access to a wider public. The XBT data flow, along with the recent improvements in the quality check procedures and the consistence of the available historical data set are described. The main features of SeaDataNet services and the advantage of using this system for long-term data archiving are presented. Finally, focus on the Ligurian Sea is included in order to provide an example of the kind of information and final products devoted to different users can be easily derived from the SeaDataNet web portal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

At the core of the analysis task in the development process is information systems requirements modelling, Modelling of requirements has been occurring for many years and the techniques used have progressed from flowcharting through data flow diagrams and entity-relationship diagrams to object-oriented schemas today. Unfortunately, researchers have been able to give little theoretical guidance only to practitioners on which techniques to use and when. In an attempt to address this situation, Wand and Weber have developed a series of models based on the ontological theory of Mario Bunge-the Bunge-Wand-Weber (BWW) models. Two particular criticisms of the models have persisted however-the understandability of the constructs in the BWW models and the difficulty in applying the models to a modelling technique. This paper addresses these issues by presenting a meta model of the BWW constructs using a meta language that is familiar to many IS professionals, more specific than plain English text, but easier to understand than the set-theoretic language of the original BWW models. Such a meta model also facilitates the application of the BWW theory to other modelling techniques that have similar meta models defined. Moreover, this approach supports the identification of patterns of constructs that might be common across meta models for modelling techniques. Such findings are useful in extending and refining the BWW theory. (C) 2002 Elsevier Science Ltd. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O desenvolvimento actual de aplicações paralelas com processamento intensivo (HPC - High Performance Computing) para alojamento em computadores organizados em Cluster baseia-se muito no modelo de passagem de mensagens, do qual é de realçar os esforços de definição de standards, por exemplo, MPI - Message - Passing Interface. Por outro lado, com a generalização do paradigma de programação orientado aos objectos para ambientes distribuídos (Java RMI, .NET Remoting), existe a possibilidade de considerar que a execução de uma aplicação, de processamento paralelo e intensivo, pode ser decomposta em vários fluxos de execução paralela, em que cada fluxo é constituído por uma ou mais tarefas executadas no contexto de objectos distribuídos. Normalmente, em ambientes baseados em objectos distribuídos, a especificação, controlo e sincronização dos vários fluxos de execução paralela, é realizada de forma explicita e codificada num programa principal (hard-coded), dificultando possíveis e necessárias modificações posteriores. No entanto, existem, neste contexto, trabalhos que propõem uma abordagem de decomposição, seguindo o paradigma de workflow com interacções entre as tarefas por, entre outras, data-flow, control-flow, finite - state - machine. Este trabalho consistiu em propor e explorar um modelo de execução, sincronização e controlo de múltiplas tarefas, que permita de forma flexível desenhar aplicações de processamento intensivo, tirando partido da execução paralela de tarefas em diferentes máquinas. O modelo proposto e consequente implementação, num protótipo experimental, permite: especificar aplicações usando fluxos de execução; submeter fluxos para execução e controlar e monitorizar a execução desses fluxos. As tarefas envolvidas nos fluxos de execução podem executar-se num conjunto de recursos distribuídos. As principais características a realçar no modelo proposto, são a expansibilidade e o desacoplamento entre as diferentes componentes envolvidas na execução dos fluxos de execução. São ainda descritos casos de teste que permitiram validar o modelo e o protótipo implementado. Tendo consciência da necessidade de continuar no futuro esta linha de investigação, este trabalho é um contributo para demonstrar que o paradigma de workflow é adequado para expressar e executar, de forma paralela e distribuída, aplicações complexas de processamento intensivo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho foi efectuado com o propósito de interpretar, compreender e explicar algumas ferramentas de simulação de processos, em particular o Aspen Energy Analyzer (AEA), o Aspen Economic Evaluation (AEE) e o seu funcionamento integrado com o Aspen Hysys(AH). O AH é uma ferramenta de modelação de processos para a concepção de projectos de engenharia química, o AEA é uma ferramenta de modelação de redes de integração energética. O AEE integrado no AH é uma ferramenta que permite incorporar estudos económicos numa fase preliminar do desenvolvimento de um projecto de engenharia. A abordagem a este trabalho foi efectuada através do estudo de Casos. O Caso I foi baseado na resolução de um problema no AEA através da construção e optimização de uma rede de permutadores de calor. Os Casos II e III foram baseados na construção de um flowsheet de produção de Benzeno e de Cloreto de Vinil, respectivamente, e cada Caso foi dividido em dois cenários diferentes. Para o efeito foram utilizados os softwares AEA para a integração energética dos processos, o AH para construção do fluxograma do processo e o AEE para os estudos económicos dos diferentes cenários. Finalmente, os Casos IV e V dizem respeito à resolução de um problema de integração energética. O Caso IV foi baseado num problema de optimização da rede de permutadores através do aumento da sua área. Já o Caso V foi baseado na informação inicial das correntes do caso anterior e em dois cenários diferentes, nos quais foi estudada a influência dos preços das utilidades na construção da rede de permutadores. A conclusão foi que as ferramentas de modelação, particularmente o AH, o AEA e o AEE são uma mais-valia extraordinária para ajudar o utilizador na tomada de decisões em fases bastante preliminares da engenharia de processos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A concretização deste estágio na INCBIO teve como principal objetivo o projeto e dimensionamento de uma unidade de produção de biodiesel por transesterificação nãocatalítica num reator ultrassónico com condições supercríticas de pressão e temperatura. Com vista à concretização do trabalho, iniciou-se a realização do estudo do estado da arte relativo à produção de biodiesel, com particular enfoque na produção de biodiesel por via catalítica e por via supercrítica e na produção de biodiesel com uso de tecnologia ultrassónica. Conclui-se que nenhum estudo contempla a combinação simultânea da produção de biodiesel por via supercrítica através da tecnologia ultrassónica. Este estudo do estado da arte permitiu ainda definir as condições de temperatura, pressão e rácio mássico (250 °C, 95 bar e 1:1 respetivamente) a considerar no projeto da unidade de produção de biodiesel deste trabalho. Com base no estudo do estado da arte efetuado e com base nas características da matéria procedeu-se à definição do processo de produção de biodiesel. Para a definição do processo começou-se por elaborar o diagrama de blocos do processo (BFD) e o diagrama de fluxo do processo (PFD). Com base nos diagramas e na composição da matéria-prima, procedeu-se à quantificação dos reagentes (metanol) com base na estequiometria das reações envolvidas e ao cálculo do balanço de massa. O balanço de massa foi calculado com base na estequiometria das reações envolvidas e foi também calculado através do software de simulação ASPEN PLUS. Após o cálculo do balanço de massa elaborou-se o diagrama de tubulação e instrumentação (P&ID), que contém todos os equipamentos, válvulas, instrumentação e tubagens existentes na unidade. Após a definição do processo e cálculo do balanço de massa procedeu-se ao dimensionamento mecânico e cálculo hidráulico dos tanques, tubagem, bombas, permutador de calor, reator ultrassónico, válvulas de controlo e instrumentação de acordo com as normas ASME. Nesta fase do trabalho foram consultados diversos fornecedores possíveis para a compra de todo o material necessário. O dimensionamento mecânico e cálculo hidráulico efetuados permitiram, entre outras informações relevantes, obter as dimensões necessárias à construção do layout e à elaboração do desenho 3D. Com os resultados obtidos e desenhos elaborados, é possível avançar com a construção da unidade, pelo que pode-se inferir que o objetivo de projetar uma unidade de produção de biodiesel num reator ultrassónico com condições supercríticas foi alcançado. Por fim, efetuou-se uma análise económica detalhada que possibilita a comparação de uma unidade de produção de biodiesel por via catalítica (unidade de produção da INCBIO) com a unidade de produção de biodiesel num reator ultrassónico com condições supercríticas (unidade projetada neste trabalho). Por questões de confidencialidade, não foram revelados maior parte dos resultados da análise económica efetuada. No entanto, conclui-se que os custos de construção da unidade de produção de biodiesel num reator ultrassónico com condições supercríticas são mais baixos cerca de 35 a 40%, quando comparados com os custos de construção da unidade de produção de biodiesel por via catalítica, evidenciando assim que a combinação em simultâneo das condições supercríticas com a tecnologia ultrassónica possibilita a diminuição dos custos de produção.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thesis submitted in fulfilment of the requirements for the Degree of Master of Science in Computer Science

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Debido al gran número de transistores por mm2 que hoy en día podemos encontrar en las GPU convencionales, en los últimos años éstas se vienen utilizando para propósitos generales gracias a que ofrecen un mayor rendimiento para computación paralela. Este proyecto implementa el producto sparse matrix-vector sobre OpenCL. En los primeros capítulos hacemos una revisión de la base teórica necesaria para comprender el problema. Después veremos los fundamentos de OpenCL y del hardware sobre el que se ejecutarán las librerías desarrolladas. En el siguiente capítulo seguiremos con una descripción del código de los kernels y de su flujo de datos. Finalmente, el software es evaluado basándose en comparativas con la CPU.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

BACKGROUND: Specialized pediatric cancer centers (PCCs) are thought to be essential to obtain state-of-the-art care for children and adolescents. We determined the proportion of childhood cancer patients not treated in a PCC, and described their characteristics and place of treatment. PROCEDURE: The Swiss Childhood Cancer Registry (SCCR) registers all children treated in Swiss PCCs. The regional cancer registries (covering 14/26 cantons) register all cancer patients of a region. The children of the SCCR with data from 7 regions (11 cantons) were compared, using specialized software for record linkage. All children <16 years of age at diagnosis with primary malignant tumors, diagnosed between 1990 and 2004, and living in one of these regions were included in the analysis. RESULTS: 22.1% (238/1,077) of patients recorded in regional registries were not registered in the SCCR. Of these, 15.7% (169/1,077) had never been in a PCC while 6.4% (69/1,077) had been in a PCC but were not registered in the SCCR, due to incomplete data flow. In all diagnostic groups and in all age groups, a certain proportion of children was treated outside a PCC, but this proportion was largest in children suffering from malignant bone tumors/soft tissue sarcomas and from malignant epithelial neoplasms, and in older children. The proportion of patients treated in a PCC increased over the study period (P < 0.0001). CONCLUSIONS: One in six childhood cancer patients in Switzerland was not treated in a PCC. Whether these patients have different treatment outcomes remained unclear.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Työn tavoite oli löytää malli, joka mahdollistaisi kaikkien tilaus- toimitusprosessin operatiivisten järjestelmien integroimisen keskenään siten, että niitä voidaan hyödyntää valmistuksen ohjaukseen. Vaneritehtaissa ei ole keskitettyä tietojärjestelmää, joten tavoiteasetanta edellytti vaneritehtaan tietoverkon rakentamiseen liittyvän ongelmakentän periaatteellista ratkaisua.Koska tilaus- toimitusprosessi, tuotantoa lukuunottamatta, oli kohdeyrityksessä katettu tietojärjestelmillä, loivat nämä jo olemassa olevat järjestelmät reunaehdot ratkaisulle myös tuotannon tietoverkon kehittämisessä. Työssä etsittiin ja kiinnitettiin avaimet, joilla tuote- sekä henkilötieto saadaan identifioitua keskenään integroiduissa järjestelmissä niin, että informaatioketju ei katkea siirryttäessä järjestelmästä toiseen.Työssä ratkaistiin tietoverkon liityntä tuotantolaitteisiin valvomotuotteen avulla. Liittymisratkaisuja esiteltiin neljä. Nämä mallit kattavat suurimman osan vaneritehtaassa eteen tulevista tapauksista. Näiden lisäksi päädyttiin suosittamaan erään mekaanisen metsäteollisuuden laitetoimittajan luomaa tiedonkeruu- ja tuotannonsuunnitteluohjelmistoa, joka valmiina ratkaisuna edesauttaa tietoverkon nopeaa implementointia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli löytää voimalaitosprojektin dokumenttien hallinnan epäjatkuvuuskohdat, mikä ne aiheuttaa ja millä toimenpiteillä dokumenttien hallintaa voidaan parantaa. Tietojärjestelmien, tiedon ja dokumenttien hallinnan merkitys kasvaa yhä enenevässä määrin globaalissa verkostoliiketoiminnassa. Tieto on varastoituna voimalaitoksen suunnittelu-, rakentamis- sekä käyttö- ja ylläpitodokumenteissa. Dokumentit pitää pystyä jäljittämään tietojärjestelmistä ajasta ja paikasta riippumatta laitoksen koko elinkaaren ajan. Laitosdokumentaatiota hyödynnetään laitoksen käyttö- ja ylläpitotoimintojen, tuotekehityksen sekä uusien projektien lähtötietona. Haastatteluilla selvitettiin dokumentoinnin tilaa eräässä laajassa hajautetussa voimalaitosprojektissa. Haastattelujen tuloksia ja yrityksen sisäistä dokumentoinnin ohjeistusta vertaamalla havaittiin, että tiedon siirtoa myynniltä projektille tulee kehittää, samoin kuin dokumenttien tarkastus- ja hyväksymiskäytäntöjä. Dokumenttien käytettävyys edellyttää tietojärjestelmien integrointia ja metatietojen määrittelyä. Työn tuloksena on syntynyt karkean tason tietovirtakaavio sekä dokumentoinnin prosessikuvaukset parantamaan yrityksen ja sen alihankkijoiden välistä kommunikaatiota.