694 resultados para 004.25 Analisi e progettazione dei sistemi di elaborazione, Architettura degli elaboratori, valutazione delle prestazioni di specifici tipi elaboratore elettronico


Relevância:

100.00% 100.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità  ed efficienza della circolazione. Dalla numerosità  dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità  dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I terreni di Treporti, nella laguna di Venezia, sono caratterizzati da una fitta alternanza di strati con caratteristiche di compressibilità fortemente variabili, pertanto risulta alquanto complessa la determinazione e la scelta di parametri appropriati per la progettazione. La costruzione del terrapieno sperimentale, ed il contemporaneo impiego dell'assestimetro a basi multiple, ha permesso di misurare il comportamento deformativo del terreno in sito e le analisi retrospettive hanno simulato, in base a parametri di tentativo, il comportamento nel tempo dei terreni di fondazione. L'analisi a posteriori delle deformazioni è stata confrontata con le misure effettuate nel corso degli anni precedenti la fase di scarico, mentre oltre questa fase è stata eseguita una previsione confrontata con le tre misure eseguite dopo la fase di scarico, ottenendo in entrambi i casi un buon accordo tra simulazioni e misure. L’aderenza quasi perfetta ottenuta tra le curve ε-t calcolate e le corrispondenti curve ε-t sperimentali, fa ritenere che tutti i parametri geotecnici ottenuti dal modello, rispecchino con buona approssimazione quelli realmente mobilitati dai 40 m di sottosuolo interessati dal carico. Pertanto anche i risultati ottenuti in ordine all'influenza della consolidazione secondaria sugli abbassamenti totali, debbono ritenersi con buona approssimazione vicini al comportamento reale. Il modello è anche in grado di descrivere molto bene i cedimenti dei diversi strati di terreno e quello del piano di posa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è uno studio di diversi metodi di rinforzo delle pavimentazioni stradali, diversi per materiali utilizzati e progettazione dell’intervento. Partendo da una ricca Case History fino a giungere al caso specifico dei lavori di rafforzamento e ripristino della sovrastruttura stradale della S.S. n° 67 “Tosco- Romagnola”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 “Norme funzionali e geometriche per la costruzione delle intersezioni stradali”. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante l’attraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dell’intersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dell’intersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta l’intersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce l’argomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta l’isola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nell’ultima parte viene affrontato l’elemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità. Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 “Linee guida per le analisi di sicurezza delle strade” definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dell’analisi di sicurezza, vantaggi e svantaggi e la valutazione dell’approccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando l’utilità, gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. L’ultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dall’adeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta l’analisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dall’intervento ed utilizzando delle foto per individuare alcune problematiche emerse nell’intersezione. Utilizzando l’elaborato “azzonamento del territorio comunale di Carpi” è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. L’ultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con l’analisi del traffico e di incidentalità. Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nell’intersezione. Nell’ultimo capitolo viene studiato il Road safety review dell’intersezione. Si procede con una descrizione generale dell’intersezione, e si prosegue poi con l’individuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nell’analisi di sicurezza elencando le principali raccomandazioni emerse dall’analisi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La risorsa acqua in zone semi-aride è sottoposta a un'estrema variabilità climatica nello spazio e nel tempo. La gestione della risorsa acqua è quindi soggetta a un insieme di sfide quando i vincoli naturali vengono uniti agli effetti indotti da attività umana come per esempio l'aumento dello sfruttamento dell'acqua di sottosuolo, cambiamento dell'uso del suolo e presenza di infrastruttura mista. Si spera che il cambiamento climatico e l'attività risultanti dallo sviluppo economico, a corto termine aumentino la pressione su un sistema ormai sensibile. Se pianificato e gestito correttamente, lo stoccaggio dell'acqua, nelle sue varie forme, funge come un meccanismo di controllo della variabilità climatica e può potenziare la capacità adattiva. Lo uadi Merguellil è un corso d'acqua a carattere non perenne al centro della Tunisia, più specificamente a est della città di Kairouan. Il Merguellil drena la pioggia sulla dorsale Tunisina insieme al uadi Zeroud e Nebhana, ed è tra i principali fiumi che scorre sulla piana di Kairouan. Lo stoccaggio dell'acqua nel bacino assume diverse forme come i laghi collinari, i terrazzi, acqua di sottosuolo e una diga. Alcune delle opzioni per lo stoccaggio dell'acqua sono state costruite per preservare la risorsa acqua, mantenere la popolazione rurale e mantenere l'equità tra le zone a monte ed a valle ma solitamente non è mai stata fatta un'analisi comprensiva dei "trade-offs" coinvolti in tali sviluppi. Anche se la ricerca è sviluppata in questa zona, finora nessuna analisi ha cercato di combinare le dinamiche del sistema idrologico con scenari gestionali. L'analisi di scenari gestionali consente ai decisori di valutare delle alternative di pianificazione e può incrementare positivamente la loro abilità di creare delle politiche che si basino sulle necessità fisiche ma anche sociali di un particolare sistema. Questo lavoro è un primo passo verso un Sistema di Gestione Integrata della Risorsa Idrica (inglese: IWMR) capace di mettere in prospettiva strategie future su diverse scale. L'uso di uno strumento metodologico illustra le sfide associate nell'affrontare questo compito. In questo caso, un modello WEAP (Water Evaluation and Planning System) è stato sviluppato in collaborazione con partners Tunisini in modo da integrare le conoscenze su processi fisici e valutare diverse tendenze come l'aumento dell'irrigazione o il cambio di alcuni aspetti climatici. Lo strumento ora è disponibile ai ricercatori locali dove potrà essere sviluppato ulteriormente a fine di indirizzare domande più specifiche. Questo lavoro focalizza lo stoccaggio dell'acqua per poter evidenziare le interazioni dinamiche tra le diverse opzioni di stoccaggio nella zona di studio e valutare i "trade-offs" tra di esse. I risultati iniziali dimostrati in questo lavoro sono: - Se lo sfruttamento degli acquiferi fosse ristretto ai livelli delle loro ricarica, la domanda d'acqua dei diversi utilizzatori non sarebbe soddisfatta al 25% dei livelli di consumo attuale. - La tendenza di incremento dell'agricoltura di irrigazione crea un impatto più accentuato nelle risorse di sottosuolo di quello creato da un'ipotetica riduzione della piovosità all'85% - L'aumento del numero di laghi collinari riduce la quantità d'acqua che arriva a valle, allo stesso tempo aumenta la quantità d'acqua "persa" per evaporazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio riportato in questa tesi ha come scopo l’osservazione e la comprensione dei processi molecolari associati alla deposizione di CaCO3 nei polimorfi di calcite e aragonite nel mollusco gasteropode Haliotis rufescens. In particolare l’attenzione si è focalizzata sullo strato glicoproteico (green layer) che si trova inserito all’interno dell’ipostraco o strato madreperlaceo. Studi precedenti suggeriscono l’ipotesi che il green layer sia una struttura polifunzionale che svolge un ruolo attivo nell’induzione di crescita dei cristalli di carbonato di calcio nella conchiglia. All’analisi microscopica il green layer si presenta come un foglietto trilaminato. Sugli strati esterni è depositata aragonite nella forma prismatica da una parte e sferulitica dall’altra. All’interno è racchiuso un core proteico, formato da glicoproteine e ricco di chitina. Questa struttura tripartita conferisce al guscio calcareo nuove proprietà meccaniche, come la resistenza alle fratture molto maggiore rispetto al minerale naturale. Il green layer è stato trattato in ambiente alcalino, l’unico in grado di solubilizzarlo. È stato ottenuto del materiale proteico che è stato caratterizzato utilizzando SDS-PAGE, colorato con Blu Comassie e all’argento per visualizzarne la componente peptidica. Il green layer è fluorescente, sono state quindi eseguite analisi spettroscopiche sull’estratto peptidico per determinarne le proprietà chimo fisiche (dipendenza dal pH dell’intensità di fluorescenza). Sono stati eseguiti esperimenti di crescita dei cristalli di CaCO3 in ambiente saturo di CaCl2 in assenza e presenza del peptide e in assenza e presenza di Mg++. I cristalli sono stati osservati al microscopio elettronico a scansione (SEM) e al microscopio confocale. Da un punto di vista spettroscopico si osserva che, eccitando l’estratto alcalino del green layer a 280 nm e 295 nm, lunghezze d’onda caratteristiche degli aminoacidi aromatici, si ottiene uno spettro di emissione che presenta una forte banda centrata a 440 nm e una spalla a circa 350 nm, quest’ultima da ascrivere all’emissione tipica di aminoacidi aromatici. L’emissione di fluorescenza dell’estratto dal green layer dipende dal pH per tutte le bande di emissione; tale effetto è particolarmente visibile per lo spettro di emissione a 440 nm, la cui lunghezza d’onda di emissione e l’intensità dipendono dalla ionizzazione di aminoacidi acidi (pKa = 4) e dell’istidina (pKa = 6.5 L’emissione a 440 nm proviene invece da un’eccitazione il cui massimo di eccitazione è centrato a 350 nm, tipica di una struttura policiclica aromatica. Poiché nessun colorante estrinseco viene isolato dalla matrice del green layer a seguito dei vari trattamenti, tale emissione potrebbe derivare da una modificazione posttraduzionale di aminoacidi le cui proprietà spettrali suggeriscono la formazione di un prodotto di dimerizzazione della tirosina: la ditirosina. Questa struttura potrebbe essere la causa del cross-link che rende resistente il green layer alla degradazione da parte di agenti chimici ed enzimatici. La formazione di ditirosina come fenomeno post-traduzionale è stato recentemente acquisito come un fenomeno di origine perossidativa attraverso la formazione di un radicale Tyr ed è stato osservato anche in altri organismi caratterizzati da esoscheletro di tipo chitinoso, come gli insetti del genere Manduca sexta. Gli esperimenti di cristallizzazione in presenza di estratto di green layer ne hanno provato l’influenza sulla nucleazione dei cristalli. In presenza di CaCl2 avviene la precipitazione di CaCO3 nella fase calcitica, ma la conformazione romboedrica tipica della calcite viene modificata dalla presenza del peptide. Inoltre aumenta la densità dei cristalli che si aggregano a formare strutture sferiche di cristalli incastrati tra loro. Aumentando la concentrazione di peptide, le sfere a loro volta si uniscono tra loro a formare strutture geometriche sovrapposte. In presenza di Mg++, la deposizione di CaCO3 avviene in forma aragonitica. Anche in questo caso la morfologia e la densità dei cristalli dipendono dalla concentrazione dello ione e dalla presenza del peptide. È interessante osservare che, in tutti i casi nei quali si sono ottenute strutture cristalline in presenza dell’estratto alcalino del green layer, i cristalli sono fluorescenti, a significare che il peptide è incluso nella struttura cristallina e ne induce la modificazione strutturale come discusso in precedenza. Si osserva inoltre che le proprietà spettroscopiche del peptide in cristallo ed in soluzione sono molto diverse. In cristallo non si ha assorbimento alla più corta delle lunghezze d’onda disponibili in microscopia confocale (405 nm) bensì a 488 nm, con emissione estesa addirittura sino al rosso. Questa è un’indicazione, anche se preliminare, del fatto che la sua struttura in soluzione e in cristallo è diversa da quella in soluzione. In soluzione, per un peptide il cui peso molecolare è stimato tra 3500D (cut-off della membrana da dialisi) e 6500 D, la struttura è, presumibilmente, totalmente random-coil. In cristallo, attraverso l’interazione con gli ioni Ca++, Mg++ e CO3 -- la sua conformazione può cambiare portando, per esempio, ad una sovrapposizione delle strutture aromatiche, in modo da formare sistemi coniugati non covalenti (ring stacking) in grado di assorbire ed emettere luce ad energia più bassa (red shift).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa relazione è presentare i risultati raggiunti dalle attività di marketing svolte al fine di promuovere e valutare la piattaforma e-commerce di BF Servizi, azienda che opera come intermediario nella fornitura di servizi all’interno del contesto fieristico di Bologna Fiere. A fine del 2009 BF Servizi ha commissionato a Gecod lo sviluppo di un sistema informativo per le gestione integrata di tutti i processi rilevanti per il business aziendale. A ottobre 2010 viene completato e presentato uno dei moduli previsti dall’intero progetto: la piattaforma e-commerce. Questa si differenzia dagli altri sistemi di commercio online in quanto è stata progettata specificatamente allo scopo di permettere la prenotazione di servizi da parte delle aziende che partecipano alle manifestazioni svolte presso i padiglioni di Bologna Fiere. Le sue particolarità sono quindi sia l’utenza, che configura la creazione di relazioni B2B, sia la tipologia di articoli offerti, non prodotti ma servizi, sia l’ambiente, le fiere svolte a Bologna. A seguito di questo rinnovamento BF Servizi ha ritenuto opportuno adeguare al nuovo contesto anche le proprie tecniche di marketing introducendo, come strumento da usare per la loro attuazione, il web. All’interno dell’organico dell’azienda però non era presente una figura che avesse le competenze per poter integrare, ai normali canali usati per le iniziative di marketing, le opportunità offerte da Internet e che quindi potesse utilizzarle per raggiungere gli obiettivi prefissati per tali attività e cioè la promozione della piattaforma e-commerce e la misurazione del suo gradimento da parte dell’utenza. Le mie conoscenze maturate in ambito universitario hanno apportato quel contributo necessario alla loro realizzazione. La prima decisione è stata la scelta di quale tra le tecniche di web marketing fosse la migliore per le promozione della piattaforma e-commerce di BF Servizi. La disponibilità di un voluminoso numero di indirizzi email dei loro clienti e prospect ed una generale bassa alfabetizzazione informatica degli stessi ha portato a individuare quale soluzione più adeguata la tecnica dell’email marketing. La comunicazione ai clienti per mezzo email era già prevista ma senza che vi fosse ne una pianificazione ne un'analisi dei risultati. Era quindi necessario formalizzare un vero e proprio piano di marketing e successivamente migliorarne le performance. L’assenza di strumenti adeguati alla sua realizzazione ha richiesto che prima venisse svolto un benchmark del settore basato sul confronto di funzionalità, costi e facilità d'uso. Il servizio ESP di Mailchimp è risultato il vincitore in quanto assicurava una maggiore tutela della privacy, una migliore gestione dello spam e strumenti più efficaci per la creazione e l'analisi delle campagne email. Per la valutazione del gradimento della piattaforma e-commerce da parte degli utenti è stato deciso di progettare un’apposita indagine sottoforma di Usability Test e Online Survey. Per il primo è stato necessario l’utilizzo di un apposito servizio per la condivisione dello schermo in quanto in era impossibile far ritrovare il test e l’osservatore nel medesimo luogo. Per l’Online Survey, grazie ad un piccolo Benchmark, è stato deciso di utilizzare SurveyGizmo. All’interno dell’organico dell’azienda non è presente una figura di importanza strategia quale il Web Marketing Manager che abbia la responsabilità di coordinare tutte le attività legate alla vendita o al lancio di un prodotto o di un servizio. L’attività di marketing viene svolta da una figura interna all’azienda (il Responsabile Marketing) che si avvale della collaborazione sia di Gecod, per quanto riguarda l'area informatica, sia di BitBang per quanto riguarda alcune attività di web marketing. La realizzazione delle due attività ha fortemente risentito di questa frammentazione dei compiti, è stato infatti opportuno adeguare le pianificazione alle esigenze di Gecod. Nonostante questo i dati conseguiti dall'attività di email marketing sono stati utili a capire l'efficacia e l'efficienza di questa tecnica nel contesto di BF Servizi. Anche le informazioni raccolte durante l'indagine sono state sufficienti per poter dare un valore all'usabilità della piattaforma e-commerce. La pianificazione iniziale di un piano di email marketing richiede che vengano svolte varie verifiche per valutare la qualità ed inoltre richiede periodo medio-lungo per poter essere reso ottimale. Era quindi già chiaro sin dall'inizio come uno degli obiettivi fosse quello di progettare una buona base su cui apportare successive modifiche. Le prime campagne realizzate sarebbero state utili a ricavare le informazioni necessarie per correggere il piano di marketing. La tipologia di relazione che si instaura tra BF Servizi e i suoi clienti è particolare, la gran parte di essi infatti non vi mantiene un rapporto continuativo durante l’anno ma lo esaurisce in un unico momento poco prima del manifestarsi dell’evento fieristico. L'attenzione dei clienti verso le comunicazioni di BF Servizi è elevata solo in questo periodo e la pianificazione delle campagne ha dovuto tener conto di questo aspetto. Sono state realizzate le campagne solo per gli espositori che partecipavano agli eventi fieristici di Marca 2011, Artefiera 2011 e Fishing Show 2011, cioè le manifestazioni che si sono svolte durante il mio periodo di lavoro in azienda. Le performance delle campagne sono state buone e i dati raccolti hanno permesso di identificare quali siano gli aspetti da migliorare per poter renderle ancora migliori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.