993 resultados para canali sottomarini - testate canyon sottomarini - piattaforma continentale -Milazzo
Resumo:
La mostra diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta lingresso, nella scena dellarte, dellarea del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, teatralizzando il medium della mostra come strumento di potere e introducendo un nuovo stile di presentazione dei lavori, un display dematerializzato che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale allinterno del sistema dellarte. Lo studio delle radici di questo cambiamento, ossia lemergere di due tipi di autorialit: il curatore indipendente e lartista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie assumendo materiali e metodologie provenienti, come gi dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata delloggetto di studio, con un atteggiamento che si pu definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: lemergere e laffermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Muse dArt Moderne, Dpartment des Aigles, analizzano la struttura della logica espositiva come opera darte. Nel secondo capitolo lindagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra larte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalit di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato allesposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, cos come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si postulavano le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola curatori e si propongono come organizzatori). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dellideologia, lapertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono lEuropa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dallanalisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di unesposizione: Les Immatriaux, entrambe al Pompidou. Proseguendo nellanalisi dellampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dellespansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: linclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee non essere pi conformi alle tre unit classiche della modernit: unit di tempo, di spazio e di narrazione. Lepisodio pi emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralit di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale allaltezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dellestetico: dalla mostra laboratorio alla mostra come archivio, levento si svolge nel museo ma anche nella citt, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta lultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50 Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric brac; la Scuola di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento pi analitico con questa particolare forma espressiva. Qual l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? Larte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
In un'epoca in cui l'informatizzazione si diffonde a macchia d'olio in ogni aspetto della vita quotidiana e la possibilit di essere connessi ad internet risulta vitale per aggiornarsi o anche semplicemente per mantenere contatti possibile e allo stesso tempo necessario cercare di sfruttare la rete nel migliore dei modi in ambito lavorativo, per migliorare i propri prodotti e cercando di offrire all'utente beni e servizi sempre migliori, al passo coi tempi e col pensiero moderno. in questo ambiente che la connettivit si rende necessaria anche nel settore dell'automobile in modo da gestire in maniera efficiente l'enorme quantit di dati scambiati dalle varie sottoparti del sistema il cui compito quello di supervisionare i componenti elettronici e meccanici. L'obiettivo quello quindi di centralizzare ed elaborare le informazioni in modo da semplificare ed ottimizzare la gestione del veicoli per ottenere importanti vantaggi dalla fase di test fino a quella di utilizzo, passando per quella di manutenzione. Per questo risulta fondamentale, nell'epoca in cui viviamo, concedere la possibilit al veicolo di interagire con la rete internet in modo da poter sfruttare tutti i vantaggi comunicativi, siano essi con l'ambiente circostante o con persone, che essa prevede. Una volta quindi trovato il modo di interfacciarsi con la rete e sviluppato un software adeguato fondamentale implementare fisicamente il dispositivo in modo da ottenere un dispositivo altamente integrabile nel sistema veicolo in modo da non alterare in maniera significativa la disposizione dei componenti di base (meccanici, elettrici ed elettronici) dell'automobile elettrica. in quest'ottica che s'inserisce il progetto di una scheda per una vera e propria telemetria del veicolo elettrico con l'obiettivo di ottenere un sistema ad hoc, ma che mantenga una molteplicit di interfacce che permettano al dispositivo di rimanere aggiornato con l'evoluzione in atto relativa alle tecniche e ai protocolli (standard) di comunicazione permettendo quindi comunicazioni tramite rete ethernet, Wi-Fi o GPRS, cercando anche di sfruttare sistemi di posizionamento come il GPS. Per questo motivo si cercato di realizzare la scheda seguendo la filosofia dei sistemi embedded, architetture il cui compito quello di eseguire operazioni molto specifiche spesso con vincoli sull'esecuzione in tempo reale. Questo permette di ridurre al minimo l'hardware in termini di spazio, consumo e costo di realizzazione. Queste dispositivi si sono evoluti recentemente virando sulla creazione di architetture modulari che permettono il riutilizzo delle risorse disponibili; in questo modo si ottengono comunque dispositivi ottimizzati ma in grado di mantenere un certo tipo di flessibilit nello sviluppo delle applicazioni e allargando quindi lo spettro dei possibili impieghi. Secondo questi principi si cercato quindi di realizzare la scheda in modo che implementasse e realizzasse il software dedicato alla comunicazione del veicolo con internet ma che, grazie all'hardware a disposizione, potesse essere programmata da mani esperte anche per numerosi utilizzi alternativi e resa quindi disponibile all'utente finale in possibili forme. In questo risultato fondamentale l'utilizzo della piattaforma Arduino, basata sul microcontrollore ATmega328, che permette appunto una rapida espansione fisica del sistema.
Resumo:
Il lavoro svolto in questa tesi stato quello di introdurre alcuni concetti importanti dei sistemi embedded, in particolare ci si soffermati su quelli open source. stato trattato nello specifico Arduino come esempio di sistema embedded open source a basso costo.
Resumo:
Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilit. Il background teorico rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilit (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.
Resumo:
Negli ultimi anni si sente sempre pi spesso parlare di cloud computing. L'idea di fondo di questo concetto quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilit di poter variare le proprie risorse utilizzabili a seconda delle necessit, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominci a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entit esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cio al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attivit a basso valore aggiunto per potersi concentrare su quelle attivit strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente pi brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrer inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il seguente lavoro stato condotto con lo scopo di sviluppare una nano-piattaforma per imaging multimodale MRI/SPECT e MRI/PET. Nanoparticelle magnetiche sono state intrappolate in un polimero biocompatibile, e la superficie delle nanostrutture risultanti stata funzionalizzata con un agente chelante per radioisotopi.
Resumo:
Il Cloud computing probabilmente l'argomento attualmente pi dibattuto nel mondo dell'Information and Communication Technology (ICT). La diffusione di questo nuovo modo di concepire l'erogazione di servizi IT, l'evoluzione di una serie di tecnologie che stanno rivoluzionando le modalit in cui le organizzazioni costruiscono le proprie infrastrutture informatiche. I vantaggi che derivano dall'utilizzo di infrastrutture di Cloud Computing sono ad esempio un maggiore controllo sui servizi, sulla struttura dei costi e sugli asset impiegati. I costi sono proporzionati all'eettivo uso dei servizi (pay-per-use), evitando dunque gli sprechi e rendendo pi efficiente il sistema di sourcing. Diverse aziende hanno gi cominciato a provare alcuni servizi cloud e molte altre stanno valutando l'inizio di un simile percorso. La prima organizzazione a fornire una piattaforma di cloud computing fu Amazon, grazie al suo Elastic Computer Cloud (EC2). Nel luglio del 2010 nasce OpenStack, un progetto open-source creato dalla fusione dei codici realizzati dall'agenzia governativa della Nasa[10] e dell'azienda statunitense di hosting Rackspace. Il software realizzato svolge le stesse funzioni di quello di Amazon, a differenza di questo, per, stato rilasciato con licenza Apache, quindi nessuna restrizione di utilizzo e di implementazione. Oggi il progetto Openstack vanta di numerose aziende partner come Dell, HP, IBM, Cisco, e Microsoft. L'obiettivo del presente elaborato quello di comprendere ed analizzare il funzionamento del software OpenStack. Il fine principale quello di familiarizzare con i diversi componenti di cui costituito e di concepire come essi interagiscono fra loro, per poter costruire infrastrutture cloud del tipo Infrastructure as a service (IaaS). Il lettore si trover di fronte all'esposizione degli argomenti organizzati nei seguenti capitoli. Nel primo capitolo si introduce la definizione di cloud computing, trattandone le principali caratteristiche, si descrivono poi, i diversi modelli di servizio e di distribuzione, delineando vantaggi e svantaggi che ne derivano. Nel secondo capitolo due si parla di una delle tecnologie impiegate per la realizzazione di infrastrutture di cloud computing, la virtualizzazione. Vengono trattate le varie forme e tipologie di virtualizzazione. Nel terzo capitolo si analizza e descrive in dettaglio il funzionamento del progetto OpenStack. Per ogni componente del software, viene illustrata l'architettura, corredata di schemi, ed il relativo meccanismo. Il quarto capitolo rappresenta la parte relativa all'installazione del software e alla configurazione dello stesso. Inoltre si espongono alcuni test effettuati sulla macchina in cui stato installato il software. Infine nel quinto capitolo si trattano le conclusioni con le considerazioni sugli obiettivi raggiunti e sulle caratteristiche del software preso in esame.
Sistemi navigazionali multi sensore per il posizionamento in presenza di brevi periodi di GPS outage
Resumo:
Il posizionamento terrestre negli ultimi anni stato sempre pi facilitato dallo sviluppo delle tecniche satellitari, che permettono di localizzare un punto sulla superficie terrestre con precisioni superiori a quelle richieste per la pura navigazione, tramite la comunicazione tra ricevitore e satelliti. Per la disponibilit del sistema satellitare indispensabile lintervisibilit ottica satellite - ricevitore, condizione che viene a mancare nel caso ad esempio di trekking sottobosco, a causa della copertura data da manto vegetale e chiome arboree che non permettono una corretta triangolazione geometrica satellitare. Rientrano nei sistemi navigazionali anche le piattaforme inerziali, sistemi che rilevano le accelerazioni impresse e lorientamento della piattaforma stessa. Se montati su un veicolo possono fungere da ausilio alla determinazione dell attitude, cio dellatteggiamento del veicolo durante il suo movimento in uno spazio tridimensionale. In questo lavoro ci si propone di unire i benefici delle due tecnologie, satellitari e inerziali, grazie alla complementariet delle loro caratteristiche sugli errori, unendone le potenzialit e verificando i benefici prodotti dal loro uso integrato. In particolare si utilizzeranno dispositivi di costo relativamente contenuto.
Resumo:
Studio di una interfaccia mobile web per la piattaforma XWiki.
Resumo:
La tesi studia lintermediazione attuata da agenti costituenti il campo letterario, nel processo di ammissione di autori esordienti. E il processo che inizia con un aspirante autore, con un dattiloscritto inedito, e termina con una casa editrice che accetta il dattiloscritto per la pubblicazione. Il risultato duplice: da un lato permette una comprensione nuova e profonda del campo letterario italiano, che non ha ricevuto sufficiente attenzione. Dallaltro, lo studio dei processi di intermediazione ha ricadute teoriche pi generali. Il campo letterario, cos come definito da Bourdieu, comprende tutti gli agenti e le istituzioni che, da posizioni diverse, contribuiscono alla produzione simbolica e materiale dei libri, in quanto oggetti culturali. In questo ambito, teorie sullintermediazione che ci sono utili sono la definizione bourdesiana di intermediario culturale, il concetto di gate-keeper, utilizzato come metafora dei filtri che si frappongono al flusso della produzione di oggetti culturali, quello di knowledge broker, figura in grado di generare innovazione, svolgendo un ruolo di intermediazione della conoscenza fra domini in cui esiste ma non fruttuosa ed altri in cui non esiste e, infine, quella di intermediari studiati dalleconomia della qualit, che non fanno scelte di produzione o consumo, ma influenzano le scelte fatte dai consumatori. Coerentemente con la sua natura esplorativa e lapproccio induttivo, la ricerca condotta attraverso 64 interviste semistrutturate ad agenti del campo letterario italiano: editor, editori, agenti letterari, scrittori ed altri agenti, che svolgano un ruolo di intermediazione. Il primo risultato una descrizione ricca del campo letterario italiano e degli agenti ed istituzioni che lo costituiscono. Si analizzano i criteri di selezione di autori ed opere inedite ed i canali che permettono laccesso al campo letterario, insieme agli intermediari che li attivano. Degli intermediari si analizzano aspetti soggettivi ed oggettivi, per capire chi siano, cosa fanno e perch.
Resumo:
In molti settori della ricerca in campo biologico e biomedico si fa ricorso a tecniche di High Throughput Screening (HTS), tra cui studio dei canali ionici. In questo campo si studia la conduzione di ioni attraverso una membrana cellulare durante fenomeni che durano solo alcuni millisecondi. Allo scopo sono solitamente usati sensori e convertitori A/D ad elevata velocit insieme ad opportune interfacce di comunicazione, ad elevato bit-rate e latenza ridotta. In questa tesi viene descritta l'implementazione di un modulo VHDL per la trasmissione di dati digitali provenienti da un sistema HTS attraverso un controller di rete integrato dotato di un'interfaccia di tipo Ethernet, individuando le possibili ottimizzazioni specifiche per l'applicazione di interesse.
Towards model driven software development for Arduino platforms: a DSL and automatic code generation
Resumo:
La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase pi importante dello sviluppo sar la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercher di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sar quindi di tipo platform-independent. Per la generazione automatica di codice stata adottata una piattaforma di riferimento, cio Arduino. Arduino un sistema embedded che si sta sempre pi affermando perch coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello pu essere considerato anche come la sintassi astratta di un linguaggio, quindi pu essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione stato spostato pi in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualit ed il meta-modello viene tradotto in codice che funziona correttamente.
Resumo:
A partire dagli anni '70, si assistito ad un progressivo riassetto geopolitico a livello mondiale Grazie anche allevoluzione tecnologica ed alla sua diffusione di massa, il tempo e lo spazio si contraggono nel processo di globalizzazione che ha caratterizzato le societ contemporanee ove l'informazione e la comunicazione assumono ormai un ruolo centrale nelle dinamiche di conoscenza. Il presente studio, intende far luce in primis sulla disciplina dell'intelligence, cos come enunciata in ambito militare e "civile", in particolare nel contesto USA, NATO ed ONU, al fine quindi di evidenziare le peculiarit di una nuova disciplina di intelligence, cosiddetta Open Source Intelligence, che ha come elemento di innovazione l'utilizio delle informazioni non classificate. Dopo aver affrontato il problema della concettualizzazione ed evoluzione del fenomeno terroristico, sar posto il focus sullespressione criminale ad oggi maggiormente preoccupante, il terrorismo internazionale di matrice islamica, in prospettiva multidimensionale, grazie alladozione di concetti criminologici interdisciplinari. Sotto il profilo della sperimentazione, si , quindi, deciso di proporre, progettare e sviluppare larchitettura della piattaforma Open Source Intellicence Analysis Platform,un tool operativo di supporto per lanalista Open Source Intelligence, che si pone quale risorsa delanalisi criminologica, in grado di fornire un valido contributo, grazie al merge tra practice e research, nellapplicazione di tale approccio informativo al fenomeno terroristico.
Interfaccia web per un sistema di condivisione semantica dell'informazione: studio e implementazione
Resumo:
Questa tesi progettuale nasce per integrare gli sforzi attuali sullo sviluppo del web semantico. La piattaforma di riferimento sulla quale stato svolto il presente lavoro SMART-M3. Questa piattaforma mette a disposizione uno spazio condiviso di informazioni, rappresentate e accessibili secondo le tecnologie del web semantico. In questo scenario, nasce la necessit di disporre di un'interfaccia web capace di interagire con la piattaforma - in grado di risolvere la complessit intrinseca dei dati semantici - allo scopo di averne un completo controllo; ricerche precedenti a questo proposito hanno dato come frutto una libreria PHP che mi stata consegnata come strumento per lo sviluppo dell'interfaccia. La tesi si articolata in 3 fasi principali: una fase iniziale di documentazione sull'argomento, eseguita principalmente sul libro A developer's guide to the semantic web di Liyang Yu e sulla tesi Ontologie per il web semantico: un'analisi comparativa. di Indrit Beqiri; una seconda fase, quella principale, di sviluppo del progetto informatico; una terza fase, infine, di sviluppo di questo elaborato di tesi, da considerarsi come la trattazione di tutto il percorso soprascritto, dall'inizio alla fine, secondo l'ordine cronologico in cui si svolto l'intero processo della tesi.
Resumo:
Negli ultimi anni i progressi tecnologici in termini di miniaturizzazione elettronica, hanno permesso la realizzazione di componenti hardware ed in particolare di microprocessori e sensori dalle dimensioni ridottissime. Questo ha favorito la recente diffusione di reti di sensori wireless (Wireless Sensor Network) basate su sistemi embedded pi o meno complessi ed applicate a settori di mercato che vanno dalla domotica alle applicazioni industriali, fino al monitoraggio dei pazienti. Lo scopo di questa tesi, svolta in collaborazione con la societ Rinnova di Forl, consiste nellimplementazione di un dimostratore che mostri la reale capacit di realizzare una rete WS che si appoggia su di un sistema embedded commerciale ed ampiamente diffuso come la piattaforma Arduino ed in grado di rilevare il livello di ammoniaca presente negli allevamenti di pollame. Tale gas infatti, se presente in quantit notevole, provoca una dannosa alterazione comportamentale dei polli e risulta quindi un parametro molto importante da monitorare. Oltre al sensore di ammoniaca, misurazione principale richiesta dal progetto, ne sono stati aggiunti uno per la temperatura ed uno per lumidit. Larchitettura finale implementata quella tipica di una rete a stella, in cui il master centrale colleziona a polling i dati provenienti dai sensori collegati agli slave e li invia ad un server web, rendendoli accessibili mediante la rete Internet. Lutente finale pu cos accedere alla pagina web da un qualunque PC dotato di connessione Internet, monitorare i dati dei sensori e soprattutto verificare quando il livello di ammoniaca supera la soglia di attenzione, potendo cos intervenire immediatamente nellallevamento per effettuare le dovute operazioni di pulizia.