974 resultados para Special purpose vehicles.


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The design cycle for complex special-purpose computing systems is extremely costly and time-consuming. It involves a multiparametric design space exploration for optimization, followed by design verification. Designers of special purpose VLSI implementations often need to explore parameters, such as optimal bitwidth and data representation, through time-consuming Monte Carlo simulations. A prominent example of this simulation-based exploration process is the design of decoders for error correcting systems, such as the Low-Density Parity-Check (LDPC) codes adopted by modern communication standards, which involves thousands of Monte Carlo runs for each design point. Currently, high-performance computing offers a wide set of acceleration options that range from multicore CPUs to Graphics Processing Units (GPUs) and Field Programmable Gate Arrays (FPGAs). The exploitation of diverse target architectures is typically associated with developing multiple code versions, often using distinct programming paradigms. In this context, we evaluate the concept of retargeting a single OpenCL program to multiple platforms, thereby significantly reducing design time. A single OpenCL-based parallel kernel is used without modifications or code tuning on multicore CPUs, GPUs, and FPGAs. We use SOpenCL (Silicon to OpenCL), a tool that automatically converts OpenCL kernels to RTL in order to introduce FPGAs as a potential platform to efficiently execute simulations coded in OpenCL. We use LDPC decoding simulations as a case study. Experimental results were obtained by testing a variety of regular and irregular LDPC codes that range from short/medium (e.g., 8,000 bit) to long length (e.g., 64,800 bit) DVB-S2 codes. We observe that, depending on the design parameters to be simulated, on the dimension and phase of the design, the GPU or FPGA may suit different purposes more conveniently, thus providing different acceleration factors over conventional multicore CPUs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Institutions involved in the provision of tertiary education across Europe are feeling the pinch. European universities, and other higher education (HE) institutions, must operate in a climate where the pressure of government spending cuts (Garben, 2012) is in stark juxtaposition to the EU’s strategy to drive forward and maintain a growth of student numbers in the sector (eurostat, 2015).

In order to remain competitive, universities and HE institutions are making ever-greater use of electronic assessment (E-Assessment) systems (Chatzigavriil et all, 2015; Ferrell, 2012). These systems are attractive primarily because they offer a cost-effect and scalable approach for assessment. In addition to scalability, they also offer reliability, consistency and impartiality; furthermore, from the perspective of a student they are most popular because they can offer instant feedback (Walet, 2012).

There are disadvantages, though.

First, feedback is often returned to a student immediately on competition of their assessment. While it is possible to disable the instant feedback option (this is often the case during an end of semester exam period when assessment scores must be can be ratified before release), however, this option tends to be a global ‘all on’ or ‘all off’ configuration option which is controlled centrally rather than configurable on a per-assessment basis.

If a formative in-term assessment is to be taken by multiple groups of
students, each at different times, this restriction means that answers to each question will be disclosed to the first group of students undertaking the assessment. As soon as the answers are released “into the wild” the academic integrity of the assessment is lost for subsequent student groups.

Second, the style of feedback provided to a student for each question is often limited to a simple ‘correct’ or ‘incorrect’ indicator. While this type of feedback has its place, it often does not provide a student with enough insight to improve their understanding of a topic that they did not answer correctly.

Most E-Assessment systems boast a wide range of question types including Multiple Choice, Multiple Response, Free Text Entry/Text Matching and Numerical questions. The design of these types of questions is often quite restrictive and formulaic, which has a knock-on effect on the quality of feedback that can be provided in each case.

Multiple Choice Questions (MCQs) are most prevalent as they are the most prescriptive and therefore most the straightforward to mark consistently. They are also the most amenable question types, which allow easy provision of meaningful, relevant feedback to each possible outcome chosen.
Text matching questions tend to be more problematic due to their free text entry nature. Common misspellings or case-sensitivity errors can often be accounted for by the software but they are by no means fool proof, as it is very difficult to predict in advance the range of possible variations on an answer that would be considered worthy of marks by a manual marker of a paper based equivalent of the same question.

Numerical questions are similarly restricted. An answer can be checked for accuracy or whether it is within a certain range of the correct answer, but unless it is a special purpose-built mathematical E-Assessment system the system is unlikely to have computational capability and so cannot, for example, account for “method marks” which are commonly awarded in paper-based marking.

From a pedagogical perspective, the importance of providing useful formative feedback to students at a point in their learning when they can benefit from the feedback and put it to use must not be understated (Grieve et all, 2015; Ferrell, 2012).

In this work, we propose a number of software-based solutions, which will overcome the limitations and inflexibilities of existing E-Assessment systems.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação de mestrado, Engenharia Informática, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2015

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This qualitative case study identifies and discusses the standards and risk management practices of the Ottawa Valley whitewater rafting industry and the impacts of the government enforced Special-purpose Vessels Regulations are discussed. Data collection occurred using a single case study design, which included interviews and document analysis. This study found that internal, industry, and actual standards are influenced through a variety of sources. These standards were found to affect the risk management practices of commercial whitewater rafting providers. In general, these standards promoted a high level of risk management within the Ottawa Valley rafting industry. The Special-purpose Vessels Regulations were found to be non-influential in raising the risk management standards of the Ottawa Valley whitewater rafting industry.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recent excavations at Pre-Pottery Neolithic A (PPNA) WF16 in southern Jordan have revealed remarkable evidence of architectural developments in the early Neolithic. This sheds light on both special purpose structures and “domestic” settlement, allowing fresh insights into the development of increasingly sedentary communities and the social systems they supported. The development of sedentary communities is a central part of the Neolithic process in Southwest Asia. Architecture and ideas of homes and households have been important to the debate, although there has also been considerable discussion on the role of communal buildings and the organization of early sedentarizing communities since the discovery of the tower at Jericho. Recently, the focus has been on either northern Levantine PPNA sites, such as Jerf el Ahmar, or the emergence of ritual buildings in the Pre-Pottery Neolithic B of the southern Levant. Much of the debate revolves around a division between what is interpreted as domestic space, contrasted with “special purpose” buildings. Our recent evidence allows a fresh examination of the nature of early Neolithic communities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde o final da década de 90, a securitização de ativos vem se firmando no mercado brasileiro como uma importante alternativa de captação de recursos. Essa inovação financeira permite às empresa o acesso direto ao mercado de capitais, para a venda de títulos lastreados em suas carteiras de recebíveis, eliminando a intermediação bancária e permitindo reduções no custo de capital, inclusive em comparação com títulos convencionais de dívida corporativa. Os títulos de securitização são em regra emitidos por um veículo de propósito específico (FIDC ou companhia securitizadora), com o objetivo de segregar os riscos do originador/tomador em relação aos créditos securitizados (lastro da emissão). Em 2004, a Lei 11.076 criou os novos títulos do agronegócio (CDA-WA, CDCA, LCA e CRA), inspirada na legislação da securitização imobiliária (SFI - Lei 9.514/97), buscando disponibilizar ao agronegócio uma nova fonte de recursos, via emissão de títulos no mercado de capitais. Desde então, um número crescente de operações estruturadas com esses papéis pôde ser observada, demonstrando sua funcionalidade e potencial. No entanto, o volume de captações públicas mais sofisticadas fundadas na emissão de cotas de FIDCs e de CRAs ainda se apresenta muito reduzida em relação à demanda do agronegócio por financiamento, sobretudo levando-se em conta a representatividade desse setor no Brasil. O setor sucro-energético é provavelmente o segmento do agronegócio que está em melhor posição para o desenvolvimento de operações de securitização, por apresentar características como: escala, padronização dos produtos, grau de consolidação dos grupos empresariais e perspectivas de crescimento, além do forte apelo ambiental. Os papéis associados a esse segmento possuem, dessa forma, um potencial singular para superar a resistência natural de investidores às aplicações financeiras na área agrícola. Este trabalho dedica-se a investigar como o conceito de securitização pode ser aplicado em operações ligadas ao agronegócio, particularmente ao setor sucro-alcooleiro. A partir de um estudo de caso, serão analisados aspectos operacionais de uma emissão pública de CRAs, ressaltando os mecanismos e procedimentos adotados para lidar com as particularidades dos títulos oriundos do agronegócio. O estudo mostra que a estruturação desse tipo de operação apresenta algumas características e desafios diferentes das operações fundadas em outros papéis, porém a priori administráveis a partir das técnicas tradicionais de securitização e da incorporação de mecanismos suplementares de gestão de riscos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo caracterizar o processo de decisão e implementação da Parceria Público-Privada da Saúde na Bahia – Hospital do Subúrbio. A metodologia utilizada foi a pesquisa qualitativa, na modalidade de estudo de caso, direcionada a compreender esse caso, através da narrativa dos principais stakeholders, de análise documental e da bibliografia nacional e internacional sobre o tema, desde textos legais até relatos de experiências internacionais. Com isso, pretende-se contribuir para o maior conhecimento e entendimento da PPP como uma nova modalidade institucional para a gestão da saúde, documentando um momento ainda inicial desse processo. Os resultados apontam que as principais condicionantes para a contratação de PPP, conforme a literatura internacional, foram atendidas: Análise Value for Money (VFM), elaboração de edital e contrato, licitação, formação de Sociedade de Propósito Específico (SPE), Fundo Garantidor de PPP. Analisando os pontos centrais na Nova Gestão Pública – gestão para resultados, construção de um modelo organizacional mais flexível e accountability – foi possível concluir que o projeto do Hospital do Subúrbio está alinhado com os princípios da gestão pública contemporânea. No entanto, é preciso amadurecer principalmente a accountability e seguir o caso para acompanhar seus resultados. Palavras chave: Gestão em Saúde; Gestão Pública da Saúde; Parceria Público-Privada; Administração Pública; Política de Saúde no Brasil.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Todos nós conhecemos vários tipos de atores: os de cinema, os de televisão, os de teatro, os de circo... porém há um outro tipo de ator a quem as pessoas não se referem: o ser humano. Este ator em especial representa vários papéis ao longo de sua vida. Um deles, para muitos de nós, é o de professor. O professor-ator representa para uma platéia específica - os alunos - com um objetivo também específico -seduzi-los para que haja êxito no processo ensino-aprendizagem. O presente estudo aponta para as contribuições deste processo ator no processo educativo. Da mesma forma, ressalta o tipo de relação estabelecida com os alunos, a partir do ponto de vista, tanto do professor, como do aluno. Trata-se de uma abordagem fenomenológica sobre a relação professor-aluno e suas consequências para o processo ensino-aprendizagem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como escopo analisar a estrutura de contratação de plataformas de produção e sondas de perfuração e as formas por meio das quais se pode garantir o direito dos financiadores aos créditos decorrentes do afretamento desses equipamentos. A estrutura de sua contratação geralmente ocorre por meio da celebração de contratos coligados de afretamento, com sociedade de propósito específico estrangeira (SPE), de prestação de serviços, com empresa vinculada constituída no Brasil. O financiamento, por sua vez, estrutura-se como um project finance internacional, em que a SPE toma financiamento junto a bancos estrangeiros, para pagamento da construção. Os direitos de crédito resultantes do afretamento servem como meio de pagamento do financiamento. Este trabalho analisa as principais características dos quatro arranjos contratuais por meio do qual os financiadores poderiam garantir seu acesso aos créditos, analisando as principais justificativas para sua possível adoção e os principais riscos relacionados à sua celebração, especialmente em vista da possibilidade de que a SPE seja parte de processo de recuperação judicial no Brasil, em razão da insolvência de seus controladores, quando estes são brasileiros. As quatro estruturas analisadas são a cessão de créditos regida pelas regras do Código Civil (Lei nº 10.406/2002), cessão fiduciária de direitos creditórios, prevista no artigo 66-B da Lei nº 4.728/1965, penhor de direitos e contratos regidos por legislação estrangeira.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

X-rays were initially used for the inspection of special-purpose wood pieces for quantitative evaluation properties of different species. X-ray densitometry has had its use expanded ill dendroclimatology of Picea engelmannii trees. Subsequent laboratories developed applications of X-ray densitometry for environmental, wood science and technology, and related areas. This paper describes the basic methodology of X-ray densitometry applied to the eucalypt wood analysis, as well its presenting the results of applications in three areas: (i) evaluation of wood biodegradation by white rot fungi, (ii) detection of sapwood and heartwood, and (iii) determination of the effect of management oil wood properties. The wood decayed by white rot fungi was detected by X-ray densitometry with it decreasing wood density due to the biodegradation of cell wall components. The sapwood and heartwood of eucalypts were separated in response to the attenuation of X-rays, reflected by the wood anatomical structure and chemical composition. Also, Ill eucalypt trees after the application of irrigation and i characteristic wood density profiles were detected. Ill addition, the significant potential of X-ray densitometry for eucalypt wood research and analysis is discussed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The temperature dependence has been investigated for the photoinduced birefringence in Langmuir-Blodgett (LB) films from the azocopolymer 4-[N- ethyl -N-(2-hydroxyethyl)] amino-2'-chloro-4'-nitroazobenzene (MMA-DR13) mixed with cadmium stearate. The buildup and relaxation of the birefringence in the range from 20 to 296 K were fitted with a Kohlrausch-Williams-Watts (KWW) function, with a beta-value of 0.78-0.98 for the build-up and 0.18-0.27 for the decay. This is consistent with a distribution of time constants for the kinetics of the birefringence processes. The maximum birefringence increased with increasing temperature up to 120 K because the free volume fluctuation also increased with temperature. Above 120 K, the birefringence decreased with temperature as thermal diffusion dominates. In the latter range of temperature, an Arrhenius behavior is inferred for both build-up and decay of birefringence. In each case two activation energies were obtained: 0.8 and 5 kJ/mol for the build-up and 10 and 30 kJ/mol for the decay. The energies for the build-up are much lower than those associated with motion of the polymer chain, which means that the dynamics is governed by the orientation of the chromophores. For the decay, local motion of lateral groups of the polymer chains becomes important as the activation energies are within the range of gamma-relaxation energies. (C) 2003 Elsevier B.V. B.V. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mixed integer programming is up today one of the most widely used techniques for dealing with hard optimization problems. On the one side, many practical optimization problems arising from real-world applications (such as, e.g., scheduling, project planning, transportation, telecommunications, economics and finance, timetabling, etc) can be easily and effectively formulated as Mixed Integer linear Programs (MIPs). On the other hand, 50 and more years of intensive research has dramatically improved on the capability of the current generation of MIP solvers to tackle hard problems in practice. However, many questions are still open and not fully understood, and the mixed integer programming community is still more than active in trying to answer some of these questions. As a consequence, a huge number of papers are continuously developed and new intriguing questions arise every year. When dealing with MIPs, we have to distinguish between two different scenarios. The first one happens when we are asked to handle a general MIP and we cannot assume any special structure for the given problem. In this case, a Linear Programming (LP) relaxation and some integrality requirements are all we have for tackling the problem, and we are ``forced" to use some general purpose techniques. The second one happens when mixed integer programming is used to address a somehow structured problem. In this context, polyhedral analysis and other theoretical and practical considerations are typically exploited to devise some special purpose techniques. This thesis tries to give some insights in both the above mentioned situations. The first part of the work is focused on general purpose cutting planes, which are probably the key ingredient behind the success of the current generation of MIP solvers. Chapter 1 presents a quick overview of the main ingredients of a branch-and-cut algorithm, while Chapter 2 recalls some results from the literature in the context of disjunctive cuts and their connections with Gomory mixed integer cuts. Chapter 3 presents a theoretical and computational investigation of disjunctive cuts. In particular, we analyze the connections between different normalization conditions (i.e., conditions to truncate the cone associated with disjunctive cutting planes) and other crucial aspects as cut rank, cut density and cut strength. We give a theoretical characterization of weak rays of the disjunctive cone that lead to dominated cuts, and propose a practical method to possibly strengthen those cuts arising from such weak extremal solution. Further, we point out how redundant constraints can affect the quality of the generated disjunctive cuts, and discuss possible ways to cope with them. Finally, Chapter 4 presents some preliminary ideas in the context of multiple-row cuts. Very recently, a series of papers have brought the attention to the possibility of generating cuts using more than one row of the simplex tableau at a time. Several interesting theoretical results have been presented in this direction, often revisiting and recalling other important results discovered more than 40 years ago. However, is not clear at all how these results can be exploited in practice. As stated, the chapter is a still work-in-progress and simply presents a possible way for generating two-row cuts from the simplex tableau arising from lattice-free triangles and some preliminary computational results. The second part of the thesis is instead focused on the heuristic and exact exploitation of integer programming techniques for hard combinatorial optimization problems in the context of routing applications. Chapters 5 and 6 present an integer linear programming local search algorithm for Vehicle Routing Problems (VRPs). The overall procedure follows a general destroy-and-repair paradigm (i.e., the current solution is first randomly destroyed and then repaired in the attempt of finding a new improved solution) where a class of exponential neighborhoods are iteratively explored by heuristically solving an integer programming formulation through a general purpose MIP solver. Chapters 7 and 8 deal with exact branch-and-cut methods. Chapter 7 presents an extended formulation for the Traveling Salesman Problem with Time Windows (TSPTW), a generalization of the well known TSP where each node must be visited within a given time window. The polyhedral approaches proposed for this problem in the literature typically follow the one which has been proven to be extremely effective in the classical TSP context. Here we present an overall (quite) general idea which is based on a relaxed discretization of time windows. Such an idea leads to a stronger formulation and to stronger valid inequalities which are then separated within the classical branch-and-cut framework. Finally, Chapter 8 addresses the branch-and-cut in the context of Generalized Minimum Spanning Tree Problems (GMSTPs) (i.e., a class of NP-hard generalizations of the classical minimum spanning tree problem). In this chapter, we show how some basic ideas (and, in particular, the usage of general purpose cutting planes) can be useful to improve on branch-and-cut methods proposed in the literature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This project considered the second stage of transforming local administration and public service management to reflect democratic forms of government. In Hungary in the second half of the 1990s more and more public functions delegated to local governments have been handed over to the private or civil sectors. This has led to a relative decrease of municipal functions but not of local governments' responsibilities, requiring them to change their orientation and approach to their work so as to be effective in their new roles of managing these processes rather than traditional bureaucratic administration. Horvath analysed the Anglo-Saxon, French and German models of self-government, identifying the differing aspects emphasised in increasing the private sector's role in the provision of public services, and the influence that this process has on the system of public administration. He then highlighted linkages between actors and local governments in Hungary, concluding that the next necessary step is to develop institutional mechanisms, financial incentives and managerial practices to utilise the full potential of this process. Equally important is the need for conscious avoidance of restrictive barriers and unintended consequences, and for local governments to confront the social conflicts that have emerged in parallel with privatisation. A further aspect considered was a widening of the role of functional governance at local level in the field of human services. A number of different special purpose bodies have been set up in Hungary, but the results of their work are unclear and Horvath feels that this institutionalisation of symbiosis is not the right path in Hungary today. He believes that the change from local government to local governance will require the formulation of specific public policy, the relevance of which can be proven by processes supported with actions.