1000 resultados para Kinnunen, Essi
Resumo:
Il lavoro persegue l’obiettivo generale di indagare sulle scelte di investimento dei fondi pensione italiani. Per giungere al suddetto obiettivo il lavoro si articola in quattro capitoli principali corredati da premessa e conclusioni. Il primo capitolo si preoccupa di analizzare in quale modo le scelte operate dal legislatore italiano abbiano influenzato e influenzino le politiche di investimento dei fondi pensione. E’ indubbio, infatti, che l’intervento del legislatore abbia un forte ascendente sull’operatività dei fondi e possa limitarne o, viceversa, agevolarne l’attività. Alla luce di queste considerazioni, il secondo capitolo mira ad analizzare nel concreto l’influenza delle scelte operate dal legislatore sullo sviluppo del mercato dei fondi pensione italiani. In sostanza, l’obiettivo è quello di fornire informazioni circa il mercato italiano dei fondi pensione sviluppatosi in conseguenza alla normativa testé presentata. Il successivo capitolo, il terzo, propone un’analisi della letteratura che, nel contesto nazionale ed internazionale, ha analizzato la tematica dei fondi pensione. Più nel dettaglio, si propone una disamina dei riferimenti letterari che, affrontando il problema della gestione finanziaria dei fondi pensione, trattano delle politiche e delle scelte di investimento operate da questi. Il quarto capitolo riguarda un’analisi empirica mirata ad analizzare le politiche di investimento dei fondi pensione, in particolare quelle relative agli investimenti alternativi e soprattutto, tra questi, quelli immobiliari. L’obiettivo generale perseguito è quello di analizzare la composizione del patrimonio dei fondi appartenenti al campione considerato e ricavarne indicazioni circa le scelte manageriali operate dai fondi, nonché trarre indicazioni circa lo spazio riservato e/o riservabile alle asset class alternative, soprattutto a quelle di tipo immobiliare. Si evidenzia, infatti, che la verifica presentata riguarda prevalentemente gli investimenti immobiliari che rappresentano nella realtà italiana l’alternative class maggiormente diffusa. L’analisi si concentra, anche se in modo inferiore e con un approccio quasi esclusivamente qualitativo, su altre asset class alternative (hedge fund e private equity). Si precisa, inoltre, che la volontà di focalizzare la verifica sugli alternative investment limita l’analisi ai soli fondi pensione preesistenti che, ad oggi, rappresentano l’unica categoria alla quale è consentito effettuare investimenti di tipo alternativo. A differenza dei fondi di nuova generazione, tali fondi, infatti, non sono sottoposti a limitazioni nell’attività di investimento e, almeno in linea teorica, essi possono optare senza alcuna restrizione per l’asset allocation ritenuta più appropriata Tre sono le domande di ricerca a cui l’analisi proposta mira a dare risposta: Quale è la dimensione e la composizione del portafoglio dei fondi pensione preesistenti? Quale è la dimensione e la tipologia di investimento immobiliare all’interno del portafoglio dei fondi pensione preesistenti? Esiste uno “spazio” ulteriore per gli investimenti immobiliari e/o per altri alternative investment nel portafoglio dei fondi pensione preesistenti? L’analisi è condotta su un campione di dieci fondi preesistenti, che rappresenta il 60% dell’universo di riferimento (dei 29 fondi pensione preesistenti che investono in immobiliare) e la metodologia utilizzata è quella della case study. Le dieci case study, una per ogni fondo preesistente analizzato, sono condotte e presentate secondo uno schema quanto più standard e si basano su varie tipologie di informazioni reperite da tre differenti fonti. 2 La prima fonte informativa utilizzata è rappresentata dai bilanci o rendiconti annuali dei fondi analizzati. A questi si aggiungono i risultati di un’intervista svolta nei mesi di gennaio e febbraio 2008, ai direttori generali o ai direttori dell’area investimento dei fondi. Le interviste aggiungono informazioni prevalentemente di tipo qualitativo, in grado di descrivere le scelte manageriali operate dai fondi in tema di politica di investimento. Infine, laddove presente, sono state reperite informazioni anche dai siti internet che in taluni casi i fondi possiedono. Dalle case study condotte è possibile estrapolare una serie di risultati, che consentono di dare risposta alle tre domande di ricerca poste in precedenza. Relativamente alla prima domanda, è stato possibile stabilire che il portafoglio dei fondi pensione preesistenti analizzati cresce nel tempo. Esso si compone per almeno un terzo di titoli di debito, prevalentemente titoli di stato, e per un altro terzo di investimenti immobiliari di vario tipo. Il restante terzo è composto da altre asset class, prevalentemente investimenti in quote di OICR. Per quanto riguarda la politica d’investimento, si rileva che mediamente essa è caratterizzata da un’alta avversione al rischio e pochissimi sono i casi in cui i fondi prevedono linee di investimento aggressive. Relativamente alla seconda domanda, si osserva che la dimensione dell’asset class immobiliare all’interno del portafoglio raggiunge una quota decrescente nell’arco di tempo considerato, seppur rilevante. Al suo interno prevalgono nettamente gli investimenti diretti in immobili. Seguono le partecipazioni in società immobiliari. L’analisi ha permesso, poi, di approfondire il tema degli investimenti immobiliari consentendo di trarre indicazioni circa le loro caratteristiche. Infine, relativamente all’ultima domanda di ricerca, i dati ottenuti, soprattutto per mezzo delle interviste, permettono di stabilire che, almeno con riferimento al campione analizzato, l’investimento immobiliare perde quota e in parte interesse. Questo risulta vero soprattutto relativamente agli investimenti immobiliari di tipo diretto. I fondi con patrimoni immobiliari rilevanti, infatti, sono per la totalità nel mezzo di processi di dismissione degli asset, mirati, non tanto all’eliminazione dell’asset class, ma piuttosto ad una riduzione della stessa, conformemente anche a quanto richiesto dalle recenti normative. Le interviste hanno messo in luce, tuttavia, che a fronte di un’esigenza generale di contentere la quota investita, l’asset immobiliare è considerato positivamente soprattutto in termini di opportunità di diversificazione di portafoglio e buoni rendimenti nel lungo periodo. I fondi appaiono interessati in modo particolare a diversificare il portafoglio immobiliare, dismettendo parte degli asset detenuti direttamente e aumentando al contrario le altre tipologie di investimento immobiliare, soprattutto quote di OICR immobiliari. Altrettanto positivi i giudizi relativi alle altre asset class alternative. Pur restando ancora limitato il totale delle risorse destinate, tali investimenti sono percepiti come una buona opportunità di diversificazione del portafoglio. In generale, si è rilevato che, anche laddove l’investimento non è presente o è molto ridotto, nel breve periodo è intenzione del management aumentare la quota impiegata.
Resumo:
Il lavoro di tesi di dottorato, dal titolo “Turismo religioso: percorsi culturali-religiosi come leva di sviluppo territoriale”, ha preso in esame in particolare il tema dei percorsi culturali/religiosi, considerati “strategici” in una prospettiva di ricomposizione territoriale e di sviluppo locale, e considerati importanti per la promozione di nuovi flussi turistici e valorizzazione delle risorse storiche, artistiche e culturali del Salento leccese. Il lavoro di tesi affronta il tema del turismo culturale legato all’offerta del bene religioso inteso come potenziale fattore di attrazione turistica ed importante risorsa per lo sviluppo sostenibile del territorio. L’attenzione a santuari e luoghi di culto costituisce, infatti, una valida occasione di interesse per le opere d'arte in essi presenti, e rappresenta anche una possibilità di conoscenza del territorio in cui essi insistono, diventando la destinazione di un turismo colto e di qualità. Il lavoro di tesi, si propone di dimostrare come l’attenzione al motivo religioso creando mobilità, flussi di popolazione, di turisti possa diventare occasione di promozione del prodotto locale, mettendo a sistema tutte le risorse economiche presenti nel territorio. Più in dettaglio, dopo un iniziale approccio teorico al concetto di turismo culturale, turismo religioso e marketing territoriale, esso analizza lo stato dell’arte nel territorio provinciale leccese, individuando possibili itinerari turistico-religiosi nel Salento leccese rapportati ai “Cammini d’Europa”. Si propone l’itinerario turistico - e, in particolare, a quello Leucadense, noto come la “via della Perdonanza di Leuca”, che segue la via dei pellegrinaggi medioevali che si suffragavano di luoghi di sosta in chiese e cappelle dedicate alla Vergine Maria - come strumento verso cui si orientano le recenti strategie di competitività territoriale, definibile come uno strumento d’offerta turistica che mira a valorizzare elementi-risorse del territorio. Si tratta di percorsi utili a promuovere un prodotto competitivo, che presuppone l’enucleazione dell’offerta turistica locale integrata e la costruzione intorno ad essi di un territorio dotato di infrastrutture, ricettività, politiche dell’accoglienza, valorizzazione e fruizione del patrimonio culturale materiale, immateriale ed ambientale. Non mancano nel lavoro preoccupazioni legate alla sostenibilità di un tipo di turismo, che, se di massa (come è il caso delle visite al santuario di San Pio a San Giovanni Rotondo), produce gravi pressioni sull’ambiente e perciò necessita un forte impegno in termini di pubblicità, pianificazione investimenti e presume un’opportuna programmazione da parte degli enti locali in termini di offerta ricettiva, ristorativa e dotazione di infrastrutture. La coerenza degli interventi che promuovono il prodotto religioso non può prescindere da un’integrazione orizzontale tra il sistema territoriale (ambiente, paesaggio, sistemi socio-produttivi) e gli attori locali coinvolti, ai fini di un processo di valorizzazione del patrimonio culturale che produce sviluppo locale.
Resumo:
La tesi di dottorato “Buoni cibi per buoni pensieri. Rituali di consumo alimentare tra flussi di globalizzazione e pratiche di localizzazione” verte attorno allo studio e all’approfondimento della sociologia dei consumi, con particolare riferimento alle relazioni che si possono instaurare tra i comportamenti alimentari collettivi a livello locale e il sistema globale. Il focus dell’analisi si incentra sulla sostenibilità dei consumi, fenomenologia esemplificativa di una modalità di rapporto degli uomini con i cibi innovativa e al contempo nient’affatto scontata: non soltanto a livello individual-collettivo come strumento di intelligibilità sociale e costruzione di senso, ma anche sul piano sistemico come rapporto con l’ambiente e il mondo circostante. In effetti, il percorso di studi che ha condotto all’elaborazione teorica ed empirica della tesi di dottorato, pur muovendo da studi radicati nella letteratura socio-antropologica come il consumo dei cibi e la cultura da essi veicolata, viene oggi inquadrata all’interno di nuovi scenari sullo sfondo del mutamento socioeconomico: le pratiche di sostenibilità causate dalle ambivalenti ripercussioni giocate dalla globalizzazione sui sistemi sociali. Se è vero infatti che oggi si vive in una società complessa, caratterizzata dalla crescente centralità del sistema del consumo rispetto agli altri sottosistemi, è evidente come una ri-lettura critica delle sue dimensioni simboliche ed intersoggettive nel senso del ridimensionamento degli aspetti legati alla mercificazione e al materialismo, faccia sì che la tesi dottorale si orienti sulla ricerca di una sostenibilità oggi tanto diffusa, da sostanziarsi sempre più anche nelle pratiche di consumo alimentare. Oggetto specifico di questo lavoro sono dunque, senza pretesa di esaustività ma rappresentative del contesto spaziale preso in esame, fenomenologie del consumo alimentare italiano all’interno di uno scenario globale: in particolare, si affronta la nuova cultura della sostenibilità che nasce dall’incontro fra i cittadini-consumatori e le complesse tematiche emergenti del sistema sociale di riferimento.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.
Resumo:
A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d.
Resumo:
La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.
Resumo:
La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.
Resumo:
L’analisi condotta sulle condizioni geo-morfologiche dell’intera regione abruzzese e in particolare della città de L’Aquila ha evidenziato l’importanza del contesto paesaggistico territoriale che non può che essere assunto come riferimento progettuale per rinnovare il rapporto tra uomo e natura, soprattutto in una realtà come quella aquilana dove sono il paesaggio naturale e la struttura morfologica che permangono come fattori costanti nel tempo, nonostante le trasformazioni attuate dalla società o dagli eventi sismici che da sempre caratterizzano la storia della città e che rappresentano quindi due elementi in grado di restituire l’identità stessa della popolazione. Questa caratteristica rappresenta il pretesto per un approfondimento sul paesaggio dal punto di vista percettivo: è infatti l’uomo che nel corso dei secoli modifica fortemente il proprio territorio e la percezione che ha di esso. L’obiettivo di tale studio è quello di riuscire a cogliere, in fase progettuale, l’essenza del luogo, il carattere peculiare delle diverse suggestioni che i cittadini aquilani potranno riaffermare come parte della propria identità. Considerate tali premesse, il progetto propone il disegno di un nuovo parco urbano collocato entro le mura lungo l’intera lunghezza dell’area oggetto di studio; l’obiettivo è quello di collegare i poli verdi preesistenti del Parco del Castello e del Parco del Sole e contemporaneamente di ridefinire il lacerato rapporto tra centro storico e prima periferia eleggendo il verde ad elemento capace di una relazione attiva con il contesto urbano, con la possibilità di contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali e al miglioramento dell’offerta dei luoghi di ritrovo. Il nuovo parco ospiterà architetture legate alla musica e al teatro, temi da sempre di notevole importanza per la città, come testimoniano le numerose strutture che prima dell’evento tellurico arricchivano il patrimonio culturale della città. Per evitare che funzioni di così notevole importanza per la città corrano il rischio di essere progressivamente relegate verso la periferia ed i centri minori, il progetto propone di integrare all’interno del nuovo parco una serie di attività quali laboratori teatrali e foresterie per attori, centro ricreativo, biblioteca e sala espositiva, conservatorio, attività commerciali e residenze, disposti secondo una successione lineare da nord a sud. Tale intervento sarà integrato dalla realizzazione di un complesso di residenze,costituito da tre corpi lineari disposti secondo il naturale declivio del terreno, lungo l’asse est-ovest, in corrispondenza del prolungamento dei tracciati storici secondari. Si viene a creare, quindi una sorta di struttura a pettine, nella quale le aree verdi adibite ad orti e gli spazi costruiti si compenetrano definendo un vero e proprio filtro tra città storica e quella suburbana. La disposizione dei diversi edifici e la presenza in ognuno di essi di uno spazio pubblico esterno, sono pensati in modo tale da creare una successione di spazi collettivi, suggerita in risposta all’assenza di attrezzature pubbliche all’interno del quartiere preesistente. Il progetto prevede, infatti di dare maggiore spazio alle attività pubbliche, investendo sulla realizzazione di luoghi e di spazi per l’incontro e la collettività, che rappresentano un necessità primaria per ogni città ed in particolare per L’Aquila post sisma. Contestualmente al parco che costituisce una sorta di asse verde sviluppato in direzione nord-sud, il progetto si estende anche in direzione perpendicolare, lungo la direttrice est-ovest, attraverso la riqualificazione dell’asse storico di via San Bernardino, cercando di restituire ad esso ed alla monumentale scalinata omonima la valenza storica progressivamente perduta nel corso degli anni. Pertanto, il progetto prevede la ridefinizione di entrambi i lati della scalinata oggi abbandonati al verde incolto ed in particolare la realizzazione, lungo il lato orientale, di un nuovo polo culturale, costituito da una biblioteca ed una sala espositiva. Il nuovo edificio, assume un ruolo cardine all’interno del progetto, rappresentando uno dei punti di collegamento tra città storica e verde pubblico. Il complesso nasce dall’incontro di cinque elementi lineari disposti in modo tale da assecondare il naturale dislivello del terreno e da consentire la realizzazione di due ampi spazi pubblici: uno verde, pensato come prolungamento del parco, sul quale si affaccia l’ampia sala di lettura della biblioteca ed uno pavimentato, ai piedi della scalinata, delimitato da un portico a doppia altezza. Il nuovo edificio, consente inoltre di creare un belvedere dal parco verso la città storica, evocando una suggestione cara agli abitanti della città.
Resumo:
La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.
Resumo:
Obiettivo del progetto di tesi è ritrovare un percorso urbano, riguardante un tratto della città di Cesena, che oggi non è più leggibile nella sua originaria identità. La cinta muraria di Cesena è da sempre motivo di vanto della città. Esso è dovuto anche al fatto che gran parte di tale cinta è stato oggetto di restauri puntuali. Vi è un tratto di esse però dove non risulta più immediata la sua l’appartenenza ad un tutto più ampio e finito che è quello dell’intero perimetro fortificato. Il nostro progetto vuole suggerire nuovamente quale fosse il suo andamento, e il suo rapporto con il resto della città quindi proponiamo il restauro e la valorizzazione degli elementi significativi che s’incontrano percorrendo il suddetto tratto di città. Precisamente si tratta dei manufatti della porta d’accesso del torrente Cesuola detta Portaccia e di porta Fiume, due delle antiche porte delle mura cesenati. Si propone per questi un riuso degli ambienti che saranno adibiti a punto informativo, piuttosto che aree espositive, museali. Saranno aperte al pubblico e rese visibili per portare un esempio le antiche cannoniere. Si è progettata anche la sistemazione dell’area esterna direttamente prospiciente gli edifici in questione, al fine di renderli maggiormente visibili e riconoscibili all’interno del panorama cittadino. Questi due edifici vogliono essere importanti poli per i turisti o per chiunque voglia immergersi nella storia della città di Cesena. S’incontra poi in questa passeggiata, un’area archeologica. La si raggiunge partendo per esempio dalla Portaccia e seguendo quello che era il tracciato delle antiche mura. Tale area testimonia l’esistenza di tratti di antiche fortificazioni e ci racconta i caratteri costruttivi delle abitazioni del tempo e dell’impianto urbano, oltre ad aver riportato alla luce antichi manufatti e reperti archeologici importanti. Questo spazio verrà opportunamente valorizzato e reso noto ai visitatori. Si sceglie di non portare alla luce gli elementi trovati nel sottosuolo per non variare le loro condizioni termo-igrometriche, e di suggerire la dimensione degli stessi attraverso la progettazione fedele fuori terra di elementi in alzato cavi contenenti vegetazione. Il visitatore potrà girovagare fra questi nel “giardino archeologico”. Un altro elemento di fondamentale importanza proseguendo nel percorso è la presenza dei suggestivi ruderi della rocca Vecchia, che hanno resistito allo scorrere inesorabile del tempo e che sono ancora in grado di testimoniare di un passato ormai distante e sfocato. Sarà la vegetazione a fare da protagonista in quest’area poiché attraverso la scelta di alcune piante che, con le loro radici sono in grado di aiutare i ruderi a sopravvivere, verrà dato nuova veste a ciò che resta della rocca Vecchia. Contestualmente a ciò, si è deciso di riproporre nella zona retrostante i ruderi, il sistema degli antichi terrazzamenti di cui il colle è stato dotato in passato. Essi sono importanti a livello strutturale per ovviare alle problematiche conseguenti al dilavamento del terreno verso valle, ma non solo. Si vuole sì riproporre questi terrazzamenti come citazione storica, ma essa vuole essere un’emulazione non un’imitazione, pertanto, verranno trattati come una sorta di “giardino botanico”. La discesa del colle verso porta Fiume sarà certamente più piacevole se si potranno ammirare le specie autoctone presenti in questo luogo ben organizzate lungo la passeggiata. L’obiettivo del progetto è rendere palesi le importanti caratteristiche architettoniche che contraddistinguono l’eccezionale valore dei beni oggetto di analisi, migliorando le condizioni di conservazione ed assicurando una fruizione degli ambienti, ove sia possibile, e donando una nuova destinazione d’uso agli stessi.
Resumo:
Il confronto in corso tra gli esperti di management sanitario sui dipartimenti ospedalieri, la crescente attenzione sui modelli di organizzazione a rete e le indagini sui servizi sanitari condotte con strumenti di analisi dei network hanno rappresentato la base su cui sviluppare il disegno dello studio. La prospettiva relazionale e le tecniche di social network analysis (Sna) sono state impiegate in un indagine empirica effettuata presso tre Dipartimenti Ospedalieri dell’Azienda USL di Bologna per osservare la struttura delle relazioni che intercorrono nell’ambito dei dipartimenti, tra le unità operative e tra i clinici, al fine di assicurare il quotidiano svolgersi dei processi clinico assistenziali dei pazienti. L’indagine si è posta tre obiettivi. Il primo è quello di confrontare la rete delle relazioni “reali” che intercorrono tra unità operative e tra clinici con le relazioni “progettate” attraverso l’afferenza delle unità operative nei dipartimenti e dei singoli clinici nelle unità operative. In sostanza si tratta di confrontare, con intenti esclusivamente conoscitivi, la struttura organizzativa formale – istituzionale con quella “informale”, che emerge dalle relazioni giornaliere tra i professionisti. In secondo luogo si intende comprendere se e come i fattori di natura attributiva che caratterizzano i singoli rispondenti, (es. età, sesso, laurea, anni di permanenza in azienda, ecc.) incidano sulla natura e sull’intensità delle relazioni e delle collaborazioni intrattenute con i colleghi all’interno dell’azienda. L’analisi ha un intento “esplicativo”, in quanto si cerca di indagare come le similitudini nelle caratteristiche individuali possano o meno incidere sull’intensità degli scambi e quindi delle collaborazioni tra professionisti. Il terzo obiettivo è volto a comprendere se e come i fattori attributivi e/o relazionali siamo in grado di spiegare l’attitudine mostrata dai singoli professionisti rispetto l’adozione di un approccio alla pratica clinica ispirato all’Evidence based medicine. Lo scopo è quello di verificare se la disponibilità / orientamento ad operare in una prospettiva evidence based sia più legata ad elementi e caratteristiche personali piuttosto che all’influenza esercitata da coloro con i quali si entra in contatto per motivi lavorativi. La relativa semplicità della fase di indagine ha indotto ad arricchire i contenuti e gli obiettivi originari del lavoro allo scopo di correlare indicatori relazionali e attributivi con indicatori di “performance”, in particolare di efficienza e appropriatezza. Le relazioni sono state rilevate attraverso un questionario sociometrico inserito in uno spazio web accessibile dalla rete ospedaliera e compilato online da parte dei medici. Il questionario è stato organizzato in tre sezioni: la prima per la raccolta di informazioni anagrafiche e dati attributivi dei clinici; la seconda volta a raccogliere i dati relazionali, funzionali e di consulenza, verso le equipe di professionisti (unità operative) e verso i singoli colleghi clinici; la terza sezione è dedicata alla raccolta di informazioni sull’utilizzo delle evidenze scientifiche a supporto della propria pratica clinica (consultazione di riviste, banche dati, rapporti di HTA, etc,) e sulla effettiva possibilità di accesso a tali strumenti. L’azienda ha fornito i dati di struttura e la base dati degli indicatori di attività delle UO arruolate nello studio. La compliance complessiva per i tre dipartimenti è stata pari a circa il 92% (302 rispondenti su un campione di 329 medici.). Non si sono rilevate differenze significative sulla compliance per i tre dipartimenti considerati. L’elaborazione dei dati è stata effettuata mediante specifici software per l’analisi delle reti sociali, UCINET 6 per il calcolo degli indicatori relazionali (centralità, densità, structural holes etc.), e Pajek per l’analisi grafica dei network. L’ultima fase è stata realizzata con l’ausilio del software statistico STATA vers. 10. L’analisi dei risultati è distinta in due 2 fasi principali. In primis è stato descritto il network di relazioni professionali rilevate, sono stai calcolati i relativi indicatori di centralità relazionale e verificato il grado di sovrapposizione tra struttura formale dei dipartimenti in studio con le relazioni informali che si stabiliscono tra di essi nell’ambito clinico. Successivamente è stato analizzato l’impatto che le relazioni esercitano sulla propensione da parte dei singoli medici a utilizzare nuove evidenze scientifiche I primi risultati emersi dallo studio forniscono interessanti evidenze, con particolare riguardo al dato di un discreto grado di “sovrapposizione” tra struttura formale e informale delle unità organizzative in studio e a correlazioni significative tra fattori relazionali e attitudine dei medici verso l’utilizzo dell’approccio EBM. Altre evidenze, in specie la correlazione tra “centralità” degli attori organizzativi e alcuni indicatori di performance /appropriatezza, meritano ulteriori approfondimenti e una definitiva validazione. In conclusione lo studio dimostra che la prospettiva relazionale e la Sna consentono di porre in evidenza caratteristiche dei dipartimenti, dei suoi attori e delle loro reti di reciproche relazioni, in grado di favorire la comprensione di alcune dinamiche ricercate proprio attraverso l’organizzazione dipartimentale e quindi di specifico interesse per il management, i clinici e quanti altri impegnati nella gestione e nello sviluppo di questo modello di organizzazione dell’ospedale.
Resumo:
Questo lavoro riguarda il recupero di una ferrovia dismessa per la realizzazione di una "greenway", ovvero un percorso per la mobilità lenta. Per mobilità lenta si intende mobilità alternativa al traffico veicolare motorizzato e riguarda il muoversi su un territorio a piedi in bicicletta o con altro mezzo di trasporto senza l’ausilio di un motore. La lentezza è una caratteristica che permette una visione nuova dei paesaggi che si attraversano, siano essi naturali o urbani. In alcuni casi si parla anche di circolazione dolce. Questo tipo di circolazione necessita di infrastrutture con caratteristiche adatte a questa funzione, attrezzate in modo da consentire il più alto grado di fruibilità e comodità d’uso. Esse devono servire a muoversi nel territorio in maniera comoda e sicura. Una ferrovia dismessa si presta ad essere riconvertita in un percorso per la mobilità lenta in quanto presenta caratteristiche compatibili con questo nuovo utilizzo. In primo luogo le caratteristiche geometriche come ad esempio le pendenze ridotte, la larghezza e la regolarità del tracciato e la pubblica proprietà. Una ferrovia dismessa rappresenta una opportunità per l’intero territorio attraversato in quanto può rappresentare un importante elemento di connessione fra le popolazioni e le risorse del territorio. La connessione richiama il concetto di rete che è formata da punti e da linee che li collegano fra di loro. Questo concetto è importante per capire come questo percorso possa interagire con le altre risorse territoriali. Ad esempio in alcuni casi una greenway può costituire un corridoio ecologico ed entrare a far parte di una rete ecologica, diventando così una importante risorsa per la diffusione della biodiversità. Nell’affrontare un argomento complesso come la riconversione di una ferrovia dismessa è stata fondamentale l’esperienza fatta sul campo visitando casi di greenway già realizzate in Italia, dalla quale è stato possibile estrapolare una serie di soluzioni da adottare per analogia al caso in esame. E’ stato importante inoltre tutto il lavoro di conoscenza riguardante la storia della ferrovia e le tecniche realizzative dei fabbricati e manufatti, che ha permesso di studiare soluzioni progettuali adatte ad un nuovo utilizzo compatibile alla funzione originaria degli stessi. Le analisi territoriali hanno permesso poi di ricavare importanti informazioni riguardanti il tipo di utenza potenziale, le risorse del territorio attraversate dal tracciato storico, nonché le previsioni future ricavate dagli strumenti urbanistici vigenti. Tutte queste informazioni sono state sintetizzate in una analisi criticità/potenzialità che ha permesso di individuare le azioni progettuali necessarie. Mentre l’analisi territoriale è svolta a tavolino, la successiva analisi del percorso invece è stata portata a termine con un rilievo diretto sul campo al fine di verificare le informazioni raccolte in precedenza. Dividendo il percorso in tratti omogenei è stato possibile assegnare ad ogni tratto un corrispondente tipo di intervento. La verifica di criticità e potenzialità ha permesso poi di programmare corrispondenti azioni progettuali al fine di risolvere le prime ed assecondare le seconde. Le tipologie di intervento individuate sono tre: gli Interventi sul percorso che riguardano la sistemazione del fondo stradale per renderlo adatto ad un utilizzo ciclopedonale e la sistemazione a verde di alcuni tratti urbani; gli interventi di nuova realizzazione che riguardano la realizzazione di nuove infrastrutture per la risoluzione di criticità oppure la realizzazione di padiglioni per assecondare le potenzialità; ed infine gli interventi sul patrimonio storico che riguardano il riutilizzo degli edifici e manufatti della ex ferrovia. Vi è infine un caso applicativo che riassume tutte queste tipologie di intervento: la ex area ferroviaria di Rimini Marina, che è ritenuta un’area dalle alte potenzialità per la sua propensione a diventare punto di partenza dell’intero sistema lineare, ma anche luogo accentratore di servizi per l’intero quartiere che risulta a carattere prevalentemente turistico-residenziale. In questo modo si ritiene possibile fare rivivere la ex ferrovia facendola diventare cioè un insieme di luoghi connessi a servizio della comunità.
Resumo:
L’obiettivo di questa relazione è presentare i risultati raggiunti dalle attività di marketing svolte al fine di promuovere e valutare la piattaforma e-commerce di BF Servizi, azienda che opera come intermediario nella fornitura di servizi all’interno del contesto fieristico di Bologna Fiere. A fine del 2009 BF Servizi ha commissionato a Gecod lo sviluppo di un sistema informativo per le gestione integrata di tutti i processi rilevanti per il business aziendale. A ottobre 2010 viene completato e presentato uno dei moduli previsti dall’intero progetto: la piattaforma e-commerce. Questa si differenzia dagli altri sistemi di commercio online in quanto è stata progettata specificatamente allo scopo di permettere la prenotazione di servizi da parte delle aziende che partecipano alle manifestazioni svolte presso i padiglioni di Bologna Fiere. Le sue particolarità sono quindi sia l’utenza, che configura la creazione di relazioni B2B, sia la tipologia di articoli offerti, non prodotti ma servizi, sia l’ambiente, le fiere svolte a Bologna. A seguito di questo rinnovamento BF Servizi ha ritenuto opportuno adeguare al nuovo contesto anche le proprie tecniche di marketing introducendo, come strumento da usare per la loro attuazione, il web. All’interno dell’organico dell’azienda però non era presente una figura che avesse le competenze per poter integrare, ai normali canali usati per le iniziative di marketing, le opportunità offerte da Internet e che quindi potesse utilizzarle per raggiungere gli obiettivi prefissati per tali attività e cioè la promozione della piattaforma e-commerce e la misurazione del suo gradimento da parte dell’utenza. Le mie conoscenze maturate in ambito universitario hanno apportato quel contributo necessario alla loro realizzazione. La prima decisione è stata la scelta di quale tra le tecniche di web marketing fosse la migliore per le promozione della piattaforma e-commerce di BF Servizi. La disponibilità di un voluminoso numero di indirizzi email dei loro clienti e prospect ed una generale bassa alfabetizzazione informatica degli stessi ha portato a individuare quale soluzione più adeguata la tecnica dell’email marketing. La comunicazione ai clienti per mezzo email era già prevista ma senza che vi fosse ne una pianificazione ne un'analisi dei risultati. Era quindi necessario formalizzare un vero e proprio piano di marketing e successivamente migliorarne le performance. L’assenza di strumenti adeguati alla sua realizzazione ha richiesto che prima venisse svolto un benchmark del settore basato sul confronto di funzionalità, costi e facilità d'uso. Il servizio ESP di Mailchimp è risultato il vincitore in quanto assicurava una maggiore tutela della privacy, una migliore gestione dello spam e strumenti più efficaci per la creazione e l'analisi delle campagne email. Per la valutazione del gradimento della piattaforma e-commerce da parte degli utenti è stato deciso di progettare un’apposita indagine sottoforma di Usability Test e Online Survey. Per il primo è stato necessario l’utilizzo di un apposito servizio per la condivisione dello schermo in quanto in era impossibile far ritrovare il test e l’osservatore nel medesimo luogo. Per l’Online Survey, grazie ad un piccolo Benchmark, è stato deciso di utilizzare SurveyGizmo. All’interno dell’organico dell’azienda non è presente una figura di importanza strategia quale il Web Marketing Manager che abbia la responsabilità di coordinare tutte le attività legate alla vendita o al lancio di un prodotto o di un servizio. L’attività di marketing viene svolta da una figura interna all’azienda (il Responsabile Marketing) che si avvale della collaborazione sia di Gecod, per quanto riguarda l'area informatica, sia di BitBang per quanto riguarda alcune attività di web marketing. La realizzazione delle due attività ha fortemente risentito di questa frammentazione dei compiti, è stato infatti opportuno adeguare le pianificazione alle esigenze di Gecod. Nonostante questo i dati conseguiti dall'attività di email marketing sono stati utili a capire l'efficacia e l'efficienza di questa tecnica nel contesto di BF Servizi. Anche le informazioni raccolte durante l'indagine sono state sufficienti per poter dare un valore all'usabilità della piattaforma e-commerce. La pianificazione iniziale di un piano di email marketing richiede che vengano svolte varie verifiche per valutare la qualità ed inoltre richiede periodo medio-lungo per poter essere reso ottimale. Era quindi già chiaro sin dall'inizio come uno degli obiettivi fosse quello di progettare una buona base su cui apportare successive modifiche. Le prime campagne realizzate sarebbero state utili a ricavare le informazioni necessarie per correggere il piano di marketing. La tipologia di relazione che si instaura tra BF Servizi e i suoi clienti è particolare, la gran parte di essi infatti non vi mantiene un rapporto continuativo durante l’anno ma lo esaurisce in un unico momento poco prima del manifestarsi dell’evento fieristico. L'attenzione dei clienti verso le comunicazioni di BF Servizi è elevata solo in questo periodo e la pianificazione delle campagne ha dovuto tener conto di questo aspetto. Sono state realizzate le campagne solo per gli espositori che partecipavano agli eventi fieristici di Marca 2011, Artefiera 2011 e Fishing Show 2011, cioè le manifestazioni che si sono svolte durante il mio periodo di lavoro in azienda. Le performance delle campagne sono state buone e i dati raccolti hanno permesso di identificare quali siano gli aspetti da migliorare per poter renderle ancora migliori.