113 resultados para Offre
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
Questo tema è alquanto attuale per la città di Venezia e soprattutto per quanto riguarda proprio il ponte dell’Accademia che, nato come provvisorio, è rimasto tale fino ai giorni nostri. Per comprendere al meglio la natura di questi manufatti, ho analizzato i quattro ponti sul Canal Grande, partendo dal ponte di Rialto, poi Scalzi e Accademia e infine il ponte della Costituzione. L’analisi è stata compiuta sia dal punto di vista storico che costruttivo, ho esaminato tutte le vicende storiche che hanno caratterizzato la loro “immagine” attuale e infine ho deciso di scomporli e studiare ogni parte, partendo dalle fondazioni fino ad arrivare ai parapetti. Oltre a questa minuziosa analisi, abbiamo affrontato il tema dei materiali che compongono questi quattro manufatti e cioè: la pietra, il legno, l’acciaio e il cemento armato. Si è rilevato importante non studiare solo le caratteristiche fisiche e meccaniche, ma anche la loro evoluzione nel tempo e nella storia dell’architettura dei ponti. Queste analisi sono state importanti per realizzare un progetto che non rompesse il filo conduttore che li lega e cioè che sono tutti ad arco ribassato con una freccia sempre minore con l’aumento delle innovazioni tecnologiche. Il progetto, quindi, si evoluto mano a mano che le analisi venivano compiute e in base al bando per il ponte dell’Accademia del comune di Venezia, bandito nel giugno del 2009. Il bando è stato il punto cardine che ha fatto da perno al progetto, delineando i punti fondamentali da seguire e da sviluppare. La documentazione relativa al bando è stata sufficiente per iniziare uno studio approfondito della struttura precedente per comprenderla in tutte le sue parti. Anche l’analisi dei progetti redatti per la Terza Mostra Internazionale dell’Architettura è stata un’occasione per approfondire e sviluppare una forma nuova e nel contempo non invasiva per la città veneta. Tutto questo ha portato alla realizzazione di un progetto che rispetta tutti i punti che il bando impone, utilizzando sia materiali innovativi che tradizionali, creando un manufatto che non stravolge l’immagine di Venezia e che finalmente offre un volto al ponte dell’Accademia che da ottant’anni continua ad avere la “fama” di ponte provvisorio.
Resumo:
La rapida crescita di Internet e del numero di host connessi sta portando sempre di più alla nascita di nuove forme di tecnlogie ed applicazioni serverside, facendo del client un thin-client. Il Cloud Computing offre una valida piattaforma a queste nuove tecnologie, ma esso si deve confrontare con diverse problematiche, fra cui la richiesta energetica sempre più crescente, che si ripercuote su un'inevitabile aumento dei gas serra prodotti indirettamente. In questa tesi analizzeremo i problemi energetici legati al Cloud Computing e le possibili soluzioni, andando infine a creare una tassonomia fra i diversi Cloud Computing più importanti sul mercato attuale.
Resumo:
“Il museo sta cambiando. In passato, era un luogo di certezze assolute, fonte di definizioni, di valori e di dottrina in materia d'arte, a tutto campo; era il luogo in cui non ci si ponevano interrogativi ma si davano autorevoli risposte.[...]“ 1 Il collezionismo d'arte comincia con il Rinascimento italiano, che sviluppa un particolare senso della storia, un entusiasmo per i prodotti dell'Antichità classica e per tutti i generi dell'arte contemporanea, pensati per la residenza privata, e in realtà, per esse fabbricati: dipinti di soggetto mitologico, quadri di artisti fiamminghi, piccoli bronzi e, al nord arte grafica. Il collezionismo in senso stretto fu agli inizi del secolo connesso solo con le antichità. Verso la fine del Cinquecento, vanno manifestandosi parecchie innovazioni. Per la prima volta compare la parola museo, che era già stata adottata in Alessandria durante il periodo Ellenistico per designare tutto l'ambito degli edifici per la cultura in cui era compresa la biblioteca. Inizialmente tutte le collezioni erano private, ma potevano essere visitate dalle élite sociali. L‟istituzione del museo che noi oggi conosciamo, nasce dall‟ Europa illuminista del XVIII secolo: infatti in questo periodo fu deliberatamente progettato uno spazio architettonico appropriato che desse forma universalmente riconoscibile all‟idea di museo. Poniamo gli esempi del Museo di Villa Albani nel 1746 e il Museo Pio Clementino in Vaticano nel 1775, che per primi si pongono il problema della progettazione architettonica, dell‟allestimento e ordinamento adeguati a un museo aperto al pubblico. Mentre per Villa Albani si trattava pur sempre di una raccolta privata visitabile, il museo voluto dai papi Clemente XIV e Pio VI per le collezioni archeologiche era già pensato come un‟istituzione di interesse pubblico. Gli ultimi tre secoli del secondo millennio hanno visto la crescita dell‟istituzione del museo, diventata esponenziale negli ultimi decenni del XX secolo. I tempi hanno coinciso con la nascita, l‟affermazione rivoluzionaria, il trionfo e il consolidamento della cultura nell‟età della borghesia. 2 “Mentre prima il museo non era che un luogo pieno di oggetti, oggi è diventato un luogo pieno di idee, che vengono suggerite dalle indicazioni e dalle descrizioni accompagnanti gli oggetti esposti, dato che il museo è come un libro aperto che si offre allo studioso e a chi desidera formarsi una coltura.[...]3 1 Karsten Schubert, Museo. Storia di un'idea - dalla Rivoluzione francese ad oggi, il Saggiatore, Milano 2004, p.17. 2 Alessandra Mottola Molfino, Il libro dei musei, Umberto Alemandi & C., Torino 1991, pp. 11-22 3 Daniele Donghi, Manuale dell'architetto Volume II, Unione Tipografico Editrice Torinese, Torino 1935, p. 11. 8 Un museo non è definito solo in base all'importanza e alla qualità delle sue raccolte, ma soprattutto da come vengono recepite da chi le esamina, sia per motivi di studio che per interesse personale. Per questo motivo si deve mettere in grado le diverse categorie di fruitori, di accedere al museo con il minor spreco di tempo possibile e con il maggior profitto. L'effetto che si vuole ottenere deriva sia dal metodo di esposizione degli oggetti, sia da una buona soluzione tecnica relativa alle dimensioni, alla forma, alla distribuzione, riscaldamento e ventilazione dei locali, all'illuminazione degli oggetti e ai mezzi di loro conservazione e sicurezza. Il museo moderno dovrà coniugare al suo interno museografia e museologia. Dove“[...]per museografia si intende l'insieme delle azioni progettuali, scientifiche e tecniche, tendenti alla sistemazione organizzativa del museo (distributiva, impiantistica, tecnica, architettonica, allestitiva, informatica); appartiene in genere all'opera dell'architetto, con la collaborazione di strutturisti, impiantisti e informatici. Al contrario per museologia si intende l'insieme delle azioni di ricerca storica, filologica, di comparazione critica che presiede all'ordinamento dell'esposizione delle opere; generalmente appartiene allo storico dell'arte, allo storico della scienza, all'archeologo, all'antropologo [...].”4 Confrontando progetti museografici e museali dei primi musei con esempi moderni e contemporanei, si intendono ricavare i caratteri fondamentali che permettano di presentare un progetto per museo coerente all'area di studio, e che riesca a rivelare la vera natura degli oggetti che andrà a ospitare attraverso uno studio specifico dei percorsi e degli allestimenti.
Resumo:
Lo studio sviluppato nella tesi fa riferimento all’ampio database sperimentale raccolto presso il sito campione di Treporti (VE), nell’ambito di un progetto di ricerca finalizzato alla caratterizzazione geotecnica del complesso sottosuolo della Laguna Veneta. Il sottosuolo lagunare è infatti caratterizzato da una fitta alternanza di sedimenti a matrice prevalentemente limosa, dal comportamento intermedio fra sabbie e argille. Il progetto di ricerca prevedeva la realizzazione di una vasta campagna di indagini in sito, articolata in più fasi e integrata da un programma sperimentale di laboratorio; nell’area in esame è stato inoltre costruito un rilevato sperimentale in vera grandezza, continuamente monitorato con una sofisticata strumentazione per circa quattro anni, fino alla sua graduale rimozione. Il lavoro di tesi proposto riguarda l’analisi dei dati provenienti dalle numerose prove dilatometriche (DMT) e con piezocono (CPTU) effettuate a Treporti, con particolare riferimento alle prove di tipo sismico (SDMT e SCPTU) realizzate sia prima della costruzione del rilevato sia a seguito della rimozione dello stesso. Rispetto alla prove “tradizionali”, le prove sismiche permettono anche la misura della velocità delle onde di taglio (Vs), la cui conoscenza è richiesta anche dalle recenti Norme Tecniche delle Costruzioni e della quale è possibile risalire agevolmente al modulo di rigidezza elastico a piccolissime deformazioni (G0). L’enorme database raccolto in questo sito offre tra l’altro l’interessante ed inusuale possibilità di mettere a confronto dati ricavati da prove dilatometriche e con piezocono relative a verticali adiacenti, svolte in diverse fasi della storia di carico imposta al sottosuolo dell’area mediante la costruzione del rilevato. L’interpretazione dei dati penetrometrici e dilatometrici è stata fatta utilizzando i più recenti approcci interpretativi proposti nella letteratura del settore. È importante sottolineare che la possibilità di classificare e stimare i parametri meccanici del sottosuolo lagunare a partire da prove diverse ha permesso una valutazione critica delle procedure interpretative adottate e, in taluni casi, ha messo in evidenza i limiti di alcuni approcci, pur se limitatamente al caso specifico in esame. In alcuni casi, grazie all’uso integrato delle prove dilatometriche e penetrometriche è stato possibile mettere a punto specifiche correlazioni alternative a quelle esistenti, calibrate sui dati sperimentali di Treporti.
Resumo:
Il mio percorso universitario presso la Facoltà di Architettura “Aldo Rossi” inizia nell’anno accademico 2005-2006. Da allora ad oggi ho avuto modo di sviluppare particolarmente alcuni temi, oggetto di lavori realizzati nel corso dei miei studi. L’attività di progettazione svolta ogni anno mi ha permesso di acquisire il modus operandi proprio di un progetto di architettura e allo stesso tempo di porre l’attenzione su alcuni argomenti, che a mio avviso, devono essere sempre affrontati da chi ha intenzione di svolgere il mestiere dell’architetto. Durante i corsi di Composizione Architettonica ed Urbanistica frequentati, ho avuto l’occasione di mettere in luce un aspetto che ritengo estremamente importante, anzi addirittura fondante, che potrebbe essere definito come “progetto di suolo”. Il suolo per un architetto rappresenta la condizione fisica essenziale affinché un oggetto architettonico possa essere costruito, ma in realtà esso non è un puro elemento di supporto per l’architettura, quanto piuttosto un “tema” che offre una molteplicità di risposte e soprattutto di possibilità per il progettista. Il costruito nel suo essere sintetico racchiude un duplice significato: da un lato implica la presenza tangibi-le di una manufatto architettonico, ma dall’altro rinvia anche alla dimensione del vuoto, da intendersi come complesso di spazi pubblici e collettivi, che assieme all’architettura generano la città o una sua parte. Nel corso degli studi ho avuto sempre l’occasione di riflettere sul peso che il “suolo” riveste all’interno di un progetto: la sua morfologia, la sua struttura e quindi il suo disegno, il suo trattamento e la sua gestione, sono aspetti che ogni volta fondano e precisano l’idea progettuale. Mi sono sempre chiesta come l’architettura potesse dialogare con il paesaggio circostante, con la superfi-cie sulla quale si innesta, con la città: essa non è un oggetto puramente introverso ma deve necessaria-mente instaurare una relazione con ciò che la circonda, in modo da poter giustificare la sua stessa pre-senza. Il filo conduttore che lega i progetti qui selezionati e presentati è dunque il progetto del suolo, inscindibile rispetto al progetto architettonico e avente pari valore: esso rappresenta un elemento fondativo che si pone in dialogo diretto, continuo e soprattutto reciproco con l’architettura.
Resumo:
Questo progetto nasce dalla volontà di creare un oasi verde, dove poter studiare, fare ricerca e anche rilassarsi, distogliendo l’attenzione dalla distesa di fabbriche ceramiche che si stagliano per chilometri quadrati su tutto il territorio del comparto ceramico reggiano-modenese. Lo scenario che si presenta a chi fruisce di questi luoghi è, infatti, di straniamento. Si è pervasi da un forte senso di alienazione ed inadeguatezza a causa delle dimensioni di alcuni fabbricati e dalla bicromia che ne caratterizzano gli spazi. Tali caratteristiche ambientali cozzano prepotentemente con la presenza di verde molto intenso, quasi boschivo, che compone il parco delle Salse di Nirano e gli spazi circostanti il Castello di Spezzano, distante solo qualche centinaia di metri dal complesso fioranese della Ferrari e quindi dal sito in esame. Fra gli obiettivi progettuali non è mai stato prioritario salvaguardare le strutture industriali presenti sull’area, non tanto a causa dello scarso interesse architettonico dei manufatti, quanto conseguentemente alla considerazione che la tipicità di tali strutture è ben rappresentata anche dalle fabbriche dell’intorno. L’obiettivo prefissato è proprio quello di infrangere questa monotonia, di organizzare spazi e, soprattutto, servizi, fino ad ora, totalmente assenti. Questa mancanza può essere spiegata ricordando l’indirizzo prettamente industriale dell’area, ma, analizzando attentamente le emergenze limitrofe all’area in questione, è facile notare come la cittadella Ferrari, ad esempio, abbia cominciato a dare al problema una risposta molto forte dal punto di vista architettonico. Nonostante questa parziale risignificazione del territorio, la separazione fra topos urbano - residenziale e industriale all’interno del Distretto è fin troppo marcata. Va detto anche che la totale carenza di luoghi per poter camminare, magari riflettendo sui temi oggetto di ricerca, e per poter vivere all’aria aperta, induce a progettare una soluzione destinata a ovviare al problema. Ne consegue quindi una forte deficienza di infrastrutture, come i parcheggi, di luoghi dedicati al divertimento o anche solo al tempo libero. Proprio per questo motivo, fra i propositi c’è anche quello di integrare il progetto con qualche soluzione in favore di questa problematica, come un polo sportivo che comprenda palestre e piscine. Il contesto, caratterizzato dalla presenza del circuito, che ha risonanza internazionale, suggerisce di optare per una struttura planimetrica lineare: ciò va a massimizzare il contatto fra superficie degli edifici e l’intorno. Sviluppando questa linearità, prende corpo la problematica di creare una rotazione circa a metà della linea d’asse; in primo luogo per assecondare la morfologia dell’area e del contesto, mantenendo inalterati gli edifici situati a nord, e, non meno importante, assegnare il giusto orientamento all’ambito residenziale, che per la sua architettura dovrà essere rivolto perfettamente verso sud. Spostando poi lo sguardo verso gli stabilimenti della Rossa, la via Giardini offre numerosi spunti progettuali. Porta a essere ripensata, lungo i suoi margini, per rapportarla meglio al contesto Ferrari, che è, a sua volta, legato indissolubilmente a quello che si trova al di là di tale asse viario; il Circuito di Fiorano e il progetto del centro ricerca. Per questo motivo risulta una priorità anche la progettazione di percorsi pedonali che colleghino il centro degli stabilimenti Ferrari con l’area del circuito, in modo da favorire la fruibilità di questo luogo di indubbio fascino e carico di storia. In conclusione, il progetto dovrà sviluppare un articolazione che consenta di percepire l’architettura in movimento. La volontà progettuale è chiaramente scenografica e si occuperà anche del rapporto fra tecnica e uomo (macchina/natura). La necessità percepita è quella, dunque, di creare un impianto di forte espressività per sanare una situazione urbana lacerata e caotica. La vastità dell’area in esame permette di incrementare la presenza di entità naturali ad esempio con l’aggiunta dell’enorme vasca d’acqua che può essere utilizzata direttamente anche per scopi funzionali al centro ricerca. L’articolazione progettuale si rivela perciò molto sfaccettata e ricca di spunti.
Resumo:
Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.
Resumo:
Perché L’Aquila? A seguito del sisma del 2009, L’Aquila offre un’occasione per riflessioni su temi urbanistici e di composizione urbana, oltre che un reale campo di sperimentazione architettonica. Perché il centro storico? Come cuore culturale ed economico dell’intera vallata dell’Aterno, il centro storico rappresenta una priorità per la Ricostruzione; il suo valore storico è la sintesi consolidata nel tempo del rapporto di una società con i luoghi della propria residenza. Una memoria da difendere attraverso l’elaborazione di strategie di intervento e idee di progetto. Qual è l’obiettivo? Il lavoro di ricerca e di progettazione mira ad individuare degli scenari e proporre delle idee di ricostruzione per tornare ad abitare il centro storico. Qual è il metodo? Per affrontare una situazione così complessa è indispensabile una conoscenza storica della struttura urbana della città prima del sisma. Inoltre è necessario comprendere l’evoluzione degli eventi (da aprile del 2009 al luglio 2011) al fine di riconoscere quali direzioni possibili può prendere un progetto che si inserisce, oggi, in un sistema ancora in cerca di un equilibrio. La Ricostruzione, intesa come processo strategico e progettuale di ridefinizione degli equilibri e delle prospettive, consente, ma forse ancor meglio esige, un ripensamento complessivo ed organico dell’intera struttura urbana. Si tratta quindi di ridefinire le relazioni tra la città storica e la sua periferia comprendendo il rapporto che un progetto di Ricostruzione può avere nel medio e lungo termine, il tutto in un contesto economico e soprattutto sociale in forte trasformazione. Il progetto propone così un nuovo complesso di residenze universitarie che potrà accogliere settantadue studenti insieme a diversi servizi quali sale lettura, sale polivalenti e una mensa. Si prevede inoltre il potenziamento della struttura di accoglienza dei salesiani con 8 nuovi alloggi per professori e una nuova Biblioteca. Il progetto vuole ricreare una continuità nel sistema del verde urbano come mezzo più appropriato e idoneo per relazionare la prima periferia alla città murata.
Resumo:
La Piccola e Media Impresa (PMI) ha costituito in Italia e all’estero un fenomeno che ha permesso un’importante crescita economica dal secondo dopoguerra in poi e tutt’oggi rappresenta quasi il 95% delle imprese italiane. L’ambiente di riferimento odierno è molto dinamico ed incerto e la competitività è più difficile da raggiungere a causa delle nuove e crescenti economie emergenti. A rendere l’ambiente competitivo più complesso si è aggiunta la crisi internazionale nata intorno al 2006 negli Stati Uniti e arrivata in Europa un paio di anni dopo, portando l’economia globale in un periodo di recessione. Tutto ciò ha reso necessario ripensare all’approccio delle imprese verso i mercati, soprattutto le PMI, applicando nuovi processi d’innovazione. Questi non dovranno limitarsi alla sola ricerca di nuovi prodotti ma cambiare anche l’impostazione manageriale in modo da avviare innovazioni di mercato. E qui che il tema dell’internazionalizzazione assume ancor più rilevanza diventando, in un periodo di crisi economica, un’importante opportunità di crescita per le PMI. Dagli anni ’70 in poi le imprese multinazionali (MNCs) erano quelle che operavano in più Paesi e Continenti estendendo il proprio business in tutto il mondo. Per le piccole e medie imprese era difficile immaginare nuovi business al di fuori dei confini territoriali per le difficoltà che un processo di internazionalizzazione richiedeva. Oggi, l’internazionalizzazione, è vista come una chance di sopravvivenza ed è spinta da diversi fattori. Questi non si limitano più alla sola ricerca di maggiori ricavi ed abbattimento dei costi ma anche “sourcing” di Know-how e tecnologie, diversificazione del rischio, partecipazione a segmenti di mercato diventati globali e sfruttamento delle opportunità offerte dai governi esteri. Con il seguente lavoro di tesi si vogliono studiare le modalità in cui si svolgono processi di internazionalizzazione e l’origine dell’impulso che induce le piccole e medie imprese ad intraprenderli. A questo proposito si sono fatte ricerche su database e riviste scientifiche volte alla raccolta e analisi dei principali articoli che la letteratura offre su i temi appena citati. Individuate le principali teorie e modelli queste sono confrontate con un caso empirico cercando i punti di contatto tra ciò che è emerso dall’analisi teorica e quella empirica. A tal proposito viene mostrato il caso dell’azienda Sinergia Sistemi S.p.A. in cui ho collaborato e avuto modo di compiere ricerche per un periodo di sei mesi. Il lavoro di tesi è pertanto strutturato in quattro capitoli. Nel primo capitolo è esposta l’analisi della letteratura scientifica andando ad individuare le principali teorie sui processi di internazionalizzazione. Attraverso quest’analisi sarà possibile avere un quadro di riferimento sui possibili processi di internazionalizzazione che le imprese possono intraprendere. Nel secondo capitolo si vuole comprendere come le imprese arrivino alla decisione di internazionalizzarsi e quali fattori, interni ed esterni all’impresa, influenzino tale scelta. Nel terzo capitolo viene esaminato il caso di Sinergia Sistemi S.p.A., società operante nel campo delle energie rinnovabili ed efficienza energetica. Dopo una prima parte che introduce l’azienda ed il mercato delle rinnovabili, sarà analizzata la situazione attuale dell’azienda nel suo processo di internazionalizzazione e la strategia delineata. Nell’ultimo capitolo si effettuerà un confronto tra ciò che la letteratura scientifica propone sui processi di internazionalizzazione ed il caso specifico esaminato. Si cercherà di trovare dei riscontri tra le varie teorie offerte dalla letteratura con la strategia seguita da Sinergia Sistemi. L’obiettivo generale di questo lavoro di tesi è confrontare teorie e modelli di internazionalizzazione con un caso empirico per comprendere l’esistenza di un riscontro con le aziende appartenenti ad un particolare settore, quello delle energie rinnovabili. Vedremo come le peculiarità di questo settore portino le imprese a dare molta rilevanza ai network che si vengono a formare nei vari Paesi più che alla ricerca di innovazioni di prodotto, che resta sempre fondamentale per la crescita. L’appartenenza ai giusti network può semplificare notevolmente il processo di internazionalizzazione, se non diventare perfino indispensabile.
Resumo:
Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.
Resumo:
L’oggetto di studio di questa tesi è la Colonia Reggiana, edificio di stampo razionalista realizzata nel 1934. Obiettivo della tesi è la realizzazione un progetto di restauro e riuso per questa struttura, a seguito di un approfondita ricerca. Nelle fase iniziale si è cercato di ampliare lo sguardo uscendo dal tema proposto, con l’intenzione di comprendere il perché della nascita di questo “fenomeno colonie” che ha interessato l’Italia dalla metà dell’800 fino al secondo dopoguerra, nonché l’evoluzione del significato di queste strutture e della loro architettura nel periodo coinvolto. La seconda fase, invece, è stata impostata sull’intima conoscenza della Colonia Reggiana, partendo dal 1933 (anno in cui si ritrovano i primi documenti che riguardano tale progetto) fino ai giorni nostri: declinando gli aspetti fondamentali riscontrati nella prima fase di ricerca su questo edificio e analizzando le singole parti di ciò che a noi è pervenuto della struttura, si è potuto arrivare a rilevare molti aspetti significativi per lo sviluppo delle ipotesi progettuali. L’ultima fase è appunto caratterizzata dallo sviluppo del progetto di restauro e riuso: il concetto fondamentale che si pone alla base è quello della coerenza con le analisi effettuate e di sviluppo di un riutilizzo che possa essere adeguato alle occasioni progettuali che l’area offre.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.