452 resultados para escogitare, soluzioni, sostenibili
Resumo:
Questa tesi si propone di indagare l'impatto di alcuni scenari di sviluppo aeroportuale legati alla prevista implementazione di un sistema di trasporto APM - People Mover, in termini di performance del terminal passeggeri dell'Aeroporto `G.Marconi' di Bologna, per fornire soluzioni efficaci alla mobilità. Il background teorico è rappresentato dai risultati ottenuti dalla ricerca sperimentale e ormai acquisiti dalla trattazione classica per code markoviane avanzate (bulk queus), mentre il metodo messo a punto, del tutto generale,parte dagli arrivi schedulati e attraverso una serie di considerazioni econometriche costruisce una serie di scenari differenti,implementati poi attraverso la simulazione dinamica con l'utilizzo del software ARENA. Le principali grandezze di stato descrittive dei processi modellizzati ottenute in output vengono confrontate e valutate nel complesso, fornendo in prima approssimazione previsioni sull'efficacia del sistema previsto. Da ultimo, vengono proposti e confrontati i due approcci forniti tanto dalla manualistica di settore quanto da contributi di ricerca per arrivare a definire un dimensionamento di massima di strutture per la mobilità (una passerella di collegamento del terminal alla stazione APM) e una verifica della piattaforma per l'attesa ad essa contigua.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Gli acciai inossidabili austenitici presentano ottime caratteristiche che li rendono ideali in tutti quei settori in cui è richiesta un’elevata resistenza alla corrosione associata a caratteristiche estetiche e funzionali. L’acciaio AISI 316L risulta essere uno dei più studiati ed utilizzati, specie nell’industria alimentare e farmaceutica, dove leapparecchiature debbono poter essere sottoposte ad aggressive procedure di sanificazione. Tuttavia, la modesta resistenza meccanica e la bassa durezza superficiale di questo acciaio determinano un comportamento non soddisfacente dal punto di vista dell’usura da strisciamento in assenza di lubrificanti, situazione che si verifica sovente in molti macchinari dedicati a queste industrie. Tra le varie soluzioni, studiate per migliorare il suo comportamento tribologico, la cementazione a bassa temperatura (LowTemperature Carburizing, LTC) seguita dalla deposizione PE-CVD (Plasma-Enhanced Chemical Vapour Deposition) di un rivestimento di carbonio amorfo idrogenato (a-C:H), sembra essere molto promettente. In questo lavoro vengono analizzate le caratteristiche tribologiche dell’acciaio AISI 316L cementato a bassa temperatura e rivestito di carbonio amorfo idrogenato, tramite prove tribologiche di strisciamento non lubrificato in geometria di contatto pattino su cilindro. Sono state verificate, inoltre, le caratteristiche microstrutturali e meccaniche superficiali del rivestimento multistrato LTC/a-C:H tramite osservazioni morfologiche/topografiche, analisi in spettroscopia micro-Raman e misure di indentazione strumentata sulle superfici rivestite, seguite da analisi metallografia e misura dei profili di microdurezza Vickers in sezione trasversale. I risultati ottenuti dimostrano che, ai fini di contenere l’effetto negativo legato all’aumento di rugosità dovuto al trattamento LTC, è opportuno effettuare una lucidatura precedente al trattamento stesso, poiché effettuandola successivamente si rischierebbe dicomprometterne lo strato efficace. Inoltre, si osserva come il trattamento LTC incrementi le capacità del substrato di supportare il rivestimento a-C:H, portando ad un miglioramento delle prestazioni tribologiche, nelle prove di strisciamento non lubrificato. Infine, si dimostra come l’utilizzo di un rivestimento a base di carbonio amorfo idrogenato adeguatamente supportato permetta una riduzione dell’attrito (di oltre cinque volte) e dell’usura (di circa dieci ordini di grandezza) rispetto ai corrispondenti materiali non rivestiti.
Resumo:
La presente tesi è il frutto di un lavoro di ricerca sugli aspetti che rendono gli algoritmi esatti per CVRP presenti in letteratura poco efficienti su certi tipi di istanze. L'ipotesi iniziale era che gli algoritmi incontrassero difficoltà di risoluzione su istanze di CVRP dotate di un numero limitato di soluzioni di Bin Packing. Allo scopo di verificare la validità di tale supposizione, sono state create istanze di Bin Packing aventi poche soluzioni ottime e sono stati aggiunti tre differenti schemi di routing. Le istanze CVRP sono state risolte con l'algoritmo del dr. Roberti, già presente in letteratura.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.
Resumo:
L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Resumo:
Il video streaming in peer-to-peer sta diventando sempre più popolare e utiliz- zato. Per tali applicazioni i criteri di misurazione delle performance sono: - startup delay: il tempo che intercorre tra la connessione e l’inizio della ripro- duzione dello stream (chiamato anche switching delay), - playback delay: il tempo che intercorre tra l’invio da parte della sorgente e la riproduzione dello stream da parte di un peer, - time lag: la differenza tra i playback delay di due diversi peer. Tuttavia, al giorno d’oggi i sistemi P2P per il video streaming sono interessati da considerevoli ritardi, sia nella fase di startup che in quella di riproduzione. Un recente studio su un famoso sistema P2P per lo streaming, ha mostrato che solitamente i ritardi variano tra i 10 e i 60 secondi. Gli autori hanno osservato anche che in alcuni casi i ritardi superano i 4 minuti! Si tratta quindi di gravi inconvenienti se si vuole assistere a eventi in diretta o se si vuole fruire di applicazioni interattive. Alcuni studi hanno mostrato che questi ritardi sono la conseguenza della natura non strutturata di molti sistemi P2P. Ogni stream viene suddiviso in blocchi che vengono scambiati tra i peer. A causa della diffusione non strutturata del contenuto, i peer devono continuamente scambiare informazioni con i loro vicini prima di poter inoltrare i blocchi ricevuti. Queste soluzioni sono estremamente re- sistenti ai cambiamenti della rete, ma comportano una perdita notevole in termini di prestazioni, rendendo complicato raggiungere l’obiettivo di un broadcast in realtime. In questo progetto abbiamo lavorato su un sistema P2P strutturato per il video streaming che ha mostrato di poter offrire ottimi risultati con ritardi molto vicini a quelli ottimali. In un sistema P2P strutturato ogni peer conosce esattamente quale blocchi inviare e a quali peer. Siccome il numero di peer che compongono il sistema potrebbe essere elevato, ogni peer dovrebbe operare possedendo solo una conoscenza limitata dello stato del sistema. Inoltre il sistema è in grado di gestire arrivi e partenze, anche raggruppati, richiedendo una riorganizzazione limitata della struttura. Infine, in questo progetto abbiamo progettato e implementato una soluzione personalizzata per rilevare e sostituire i peer non più in grado di cooperare. Anche per questo aspetto, l’obiettivo è stato quello di minimizzare il numero di informazioni scambiate tra peer.
Resumo:
Nella tesi sono trattate due famiglie di modelli meccanico statistici su vari grafi: i modelli di spin ferromagnetici (o di Ising) e i modelli di monomero-dimero. Il primo capitolo è dedicato principalmente allo studio del lavoro di Dembo e Montanari, in cui viene risolto il modello di Ising su grafi aleatori. Nel secondo capitolo vengono studiati i modelli di monomero-dimero, a partire dal lavoro di Heilemann e Lieb,con l'intento di dare contributi nuovi alla teoria. I principali temi trattati sono disuguaglianze di correlazione, soluzioni esatte su alcuni grafi ad albero e sul grafo completo, la concentrazione dell'energia libera intorno al proprio valor medio sul grafo aleatorio diluito di Erdös-Rényi.
Resumo:
Lo scopo del progetto di tesi è stato quello di indagare come è variato nel tempo l’impatto dell’impianto di incenerimento situato a Coriano, in provincia di Rimini, a seguito dell’introduzione di soluzioni tecnologiche sempre più evolute al fine di una maggiore tutela ambientale. Lo studio è stata condotto utilizzando la tecnica del Valutazione del Ciclo di Vita (LCA, Life Cycle Assesment), che consente di quantificare gli impatti utilizzando indicatori precisi e di considerare il processo in tutti i suoi dettagli. I risultati evidenziano una progressiva diminuzione dell’impatto complessivo dell’impianto, dovuto sia alle operazioni di adeguamento relative alle attività di incenerimento, sia all’introduzione di un sistema sempre più efficiente di recupero energetico. I confini del sistema sono infatti stati ampliati per poter includere nello studio l’energia elettrica generata dal recupero del calore prodotto durante la combustione. Sono stati valutati rapporti causa-effetto tra i risultati ottenuti ed alcune informazioni correlate al processo, quali composizione dei rifiuti e variazione temporale del mix energetico in Italia. Sono infine state effettuate valutazioni relativamente alla comparazione dell’impianto studiato con altre realtà territoriali ed impiantistiche e sono state prese in esame alcune tra le tecnologie più innovative applicabili al processo, soprattutto per quel che riguarda la depurazione dei fumi.
Resumo:
La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.
Resumo:
Questo testo si pone come obbiettivo l'analisi di fattibilità tecnica e l'introduzione all'implementazione di sistemi che permettano il riutilizzo di codice sorgente di applicazioni con necessità simili su dispositivi Smartphone. In particolare su sistemi Google Android. Questo è il concetto di personalizzazione di applicazioni, in pratica la costruzione di sistemi che permettano di generare applicazioni mobile attraverso interfacce user-friendly e mediante l'uso di codice modulare. L'obbiettivo è fornire una visione globale delle soluzioni e delle problematiche di questo campo, poste come linee guida per chi intendesse studiare questo contesto o dovesse sviluppare un progetto, anche complesso, inerente alla personalizzazione di applicazioni. Sarà implementato come esempio, un web service per la personalizzazione di applicazioni Android, in particolare webview, soffermandosi in particolare sulle problematiche legate alla paternità del software e delle firme digitali necessarie per la pubblicazione sul market Android. Saranno definite alcune scelte da prendere se si sviluppano applicazioni per terzi che in seguito saranno rilasciate sul market. Nella ultima parte sarà analizzata una strategia di customizzazione attraverso alcune buone pratiche, che permette attraverso l'uso di progetti libreria e direttamente nell'ambiente di sviluppo, di realizzare codice modulare e pronto per il market Android in diverse versioni.
Resumo:
Questa tesi tratta di scambio di dati aperti (open data exchange). In particolare, tratta di intervalli temporali con annesse informazioni di vario tipo. Le attività commerciali, come aziende, bar, ristoranti, cinema, teatri, e via dicendo, hanno bisogno di un modo comune per poter condividere i dati inerenti ai propri orari (timetable). Lo scopo di questa tesi è quello di mostrare un modello efficiente, compatto e completo per poter condividere tali informazioni con l'ausilio di formati standard (XML). Oggi giorno esistono diverse soluzioni atte a far fronte a questa necessità ma si tratta di soluzioni incomplete e che gestiscono tali informazioni separatamente. Il problema sorto è quello di avere un'unica struttura che posso unificare informazioni di diverso carattere con gli orari di un'attività: un cinema ha la necessità di fornire orari di diverse proiezioni svolte in sale diverse, una tournée dovrà poter specificare le coordinate geografiche del prossimo evento e così discorrendo.
Resumo:
UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.
Resumo:
Il presente elaborato di tesi si inserisce nell’ambito del progetto europeo THESEUS (Innovative technologies for safer European coasts in a changing climate) fra i cui principali obiettivi c’è quello di fornire un’adeguata metodologia integrata per la pianificazione di strategie di difesa costiera sostenibili. Le zone costiere sono sempre più soggette agli impatti antropici, legati all’intensificazione dell’urbanizzazione, e agli effetti del global climate change, ed in particolare al conseguente sea level rise. Diventa quindi importante, in un’ottica di preservazione e di gestione, capire come gli ecosistemi costieri e i beni e servizi che essi forniscono risponderanno a questi cambiamenti ambientali. Fra questi, preponderanti sono quelli rappresentati dalle spiagge sabbiose. Al fine di valutare come differenti strategie di gestione possono influenzare il sistema spiaggia, è stata analizzata la riposta del comparto bentonico della zona intertidale di due differenti spiagge lungo la costa emiliano-romagnola. Lido di Spina è fortemente antropizzato e caratterizzato dalla presenza di infrastrutture balneari-turistiche permanenti. E’ soggetto, inoltre, a interventi di ripascimento annuali e di pulizia della spiaggia. Bellocchio, invece, è un sito naturale che presenta una spiaggia caratterizzata dall’arretramento della linea di costa causata dell’erosione, e non è soggetta a interventi di gestione finalizzati alla sua mitigazione. In questo studio è stata utilizzata la componente meiobentonica, generalmente trascurata, come indicatore chiave della vulnerabilità ecologica, mentre la zona intertidale sabbiosa è stata indagata in quanto reputata uno dei primi habitat costieri “recettore” degli eventi di flooding e degli interventi di gestione. Globalmente è stato possibile evidenziare differenze di struttura di comunità fra i due siti indagati, sottolineando come, anche questa componente sia in grado di far emergere i cambiamenti dovuti a differenti approcci di gestione delle coste sabbiose. Nella seconda parte del lavoro, invece, è stato testato un approccio metodologico innovativo, denominato “Fuzzy Bayes Ecological Model” (FBEM), sviluppato nell’ambito del progetto THESEUS. L’applicazione del FBEM in THESEUS è finalizzata alla simulazione delle risposte ecosistemiche ad eventi di flooding costiero ed al fenomeno del sea level rise. In questo elaborato, il modello è stato adottato al fine di descrivere eventuali cambiamenti dei popolamenti meiobentonici. Nello specifico, l’utilizzo del modello è servito per poter confrontare la situazione attuale relativa, quindi, allo scenario di sea level rise pari a zero, con quella ipotizzata dall’IPCC per il 2080 di sea level rise pari a 0,22 m, prendendo in considerazione otto tempi di ritorno di eventi simulati di flooding a intensità crescente. Dalle simulazioni emerge come il driver del danno ecologico sia l’onda frangente il cui effetto risulta, però, mitigato dal sea level rise. I popolamenti meiobentonici sono risultati dei buoni indicatori per la valutazione dei rischi connessi al flooding e al sea level rise, dimostrando così il loro possibile utilizzo come descrittori dei cambiamenti ecologici delle zone costiere. Per questo, lo studio ed il monitoraggio della dinamica e della struttura dei popolamenti meiobentonici può diventare un mezzo fondamentale per la comprensione delle funzionalità ecosistemiche delle spiagge sabbiose. E’ inoltre in grado di produrre alcune delle informazioni necessarie allo sviluppo dei piani di gestione integrata della fascia costiera in un ottica di conservazione di questi habitat costieri e dei servizi e beni da essi forniti.