386 resultados para mura Rimini valorizzazione conoscenza utilizzo conservazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fin dai primi approcci alla città dell'Aquila, quando ancora non la conoscevamo e attraverso libri e articoli in rete cercavamo di capire la sua storia e la sua identità, abbiamo riconosciuto chiaramente quanto fosse importante la sua università. Le testimonianze precedenti il sisma parlavano di una città universitaria con quasi 30000 iscritti in continua crescita, viva e attiva, una città giovane; quelle posteriori il 6 aprile 2009 invece erano le richieste di aiuto da parte di docenti e fuorisede che si rifiutavano di abbandonare quello che per loro era diventato un importante punto di riferimento per la loro vita e la loro formazione. Forse anche perchè noi stesse studentesse, abbiamo fin da subito sentito il dovere di occuparci di questo angoscioso problema, da un lato per essere solidali verso i nostri sfortunati colleghi, dall'altro per non permettere un ulteriore abbandono dell'ateneo aquilano da parte di altri studenti. Lo slogan apparso sui cartelloni di alcuni studenti aquilani durante una manifestazione fatta per sensibilizzare la popolazione sulla loro situazione palesa il loro attaccamento alla città e la loro volontà di continuare a farne parte e partecipare alla sua ricostruzione: "Noi siamo il cuore de L'Aquila". L’Università dell’Aquila vuole tornare nel centro storico. A confermare questa volontà, più volte espressa, c’è l’acquisizione della vecchia struttura dell’ospedale San Salvatore nei pressi della Fontana Luminosa, dove verrà realizzato il nuovo polo umanistico. La nuova sede di Lettere e filosofia, situata nella parte più nuova dell’ex complesso ospedaliero sarà aperta per il prossimo anno accademico e nell'ultima porzione di struttura acquistata si insedierà anche la facoltà di Scienze della formazione. “L’Università deve tornare nel centro storico - ha affermato il rettore Ferdinando di Orio nella conferenza stampa di presentazione dell’iniziativa - perché deve tornare a rappresentare ciò che L’Aquila è, ovvero una città universitaria”. Da qui un percorso di studio che partendo dalla storia della città e della sua università ci ha portato fino alla scelta dell'area, secondo noi la più adatta ad ospitare servizi per gli studenti universitari e permettere un tempestivo approccio al problema. Un'area che si è rivelata piena di potenzialità e per noi possibile punto di riferimento per la rinascita del centro storico aquilano. Dagli studi preliminari svolti è infatti emerso che l'area di progetto è attualmente poco sfruttata benchè la sua posizione sia assolutamente favorevole. Importante è per esempio la vicinanza alla stazione ferroviaria, usata da studenti fuori sede soprattutto della conca aquilana, professori e ospiti che devono raggiungere la città. Il piazzale della stazione ferroviaria, assieme alla via XX Settembre sono poi importanti fermate del servizio urbano ed extraurbano pubblico che collegano l'area con l'università, l'ospedale, e l'autostazione di Collemaggio. Altrettanto rilevante è parsa la prossimità dell'area al centro storico ed il fatto che si presenti agibile nella quasi sua totalità il che permette di poter pensare ad un intervento di ricostruzione tempestivo. Oltre alle mura storiche, la zona di progetto si trova nelle immediate vicinanze di altre due importanti emergenze: la Fontana delle 99 cannelle, uno dei più importanti e più significativi monumenti dell’Aquila e l'edificio dell'ex-mattatoio, struttura di archeologia industriale nella quale il Comune ha scelto di localizzare temporaneamente il Museo Nazionale d'Abruzzo. Attraverso la realizzazione di questo importante spazio espositivo insieme con il restauro della Fontana delle novantanove Cannelle e della Porta Rivera a cura del FAI, sarà possibile ripristinare un polo di attrazione culturale e monumentale. L’operazione assume inoltre un valore simbolico, poiché viene effettuato in un luogo di primaria importanza, legato all’origine stessa della città, che farà da battistrada per la riappropriazione del centro storico. Noi ci affianchiamo quindi a questo importante intervento e alle ultime direttive segnalate dal Comune e dall'Ateneo che dimostrano la loro volontà di riappropriarsi del centro storico, localizzando nell'area i servizi che dopo il sisma risultano necessari affinché gli studenti possano continuare i loro studi nella città e andando a potenziare il sistema museale già presente per creare un importante polo didattico e culturale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sisma del 6 aprile ha palesato delle criticità già presenti nel territorio aquilano. Dopo l'emergenza ci si chiede quindi quale debba essere il futuro della città. Quello che risulta più evidente è sicuramente la scomparsa di un'interdipendenza tra città e territorio circostante che era invece alla base della nascita stessa del nucleo storico. Questo era infatti concepito inizialmente come una serie di entità eterogenee separate, 99 rioni che avrebbero ospitato la popolazione di altrettanti villaggi e castelli, ed arriva nel corso dei secoli ad inglobare un territorio molto più ampio di centri minori che si riconoscono nel capoluogo. Anche con la successiva crescita non si è mai sentita la necessità di provvedere ad uno sviluppo organizzato attraverso la realizzazione di servizi, ma si è sempre cercato di mantenere il centro storico come unico contenitore, non solo per la città ma per l'intero territorio. Così lo sviluppo fuori le mura è avvenuto soprattutto per mano privata generando una periferia caotica e disorganizzata come risposta alla domanda di alloggi, a cui non è mai stato dato l'onere, se non in fase progettuale, di sopperire alle necessità urbane di servizi e infrastrutture e soprattutto ad una totale mancanza di pianificazione di sviluppo futuro. Con la completa distruzione del centro storico è scomparso il cuore pulsante del territorio aquilano, a cui è subito seguito anche lo spegnimento della periferia, che gravitava e si appoggiava su di esso per la sua sopravvivenza. A questo punto la scelta di agire sulla prima periferia, in una zona di cerniera con il centro storico, diventa una scelta fondamentale, poiché questa diventa una possibilità per dare luogo ad una rinascita non solo della città dentro le mura ma dell'Aquila moderna. Poiché questo sia possibile è chiaro come l'attenzione maggiore debba rivolgersi non solo alla risposta della domanda abitativa, ma anche alla progettazione di spazi per la collettività, servizi a diversa scala e sedi per il piccolo e medio commercio per rendere possibili nuove opportunità sociali ed economiche. In quest'ottica risulta indispensabile mantenere un collegamento, fisico e visivo, con il centro storico, attraverso la riqualificazione della fascia verde a ridosso delle mura e la sua naturale prosecuzione al di là della strada nell'area di progetto. Una delle problematiche principali è stata inoltre la definizione o meno di un confine. La scelta è stata quella di una struttura aperta: una maglia senza un limite preciso ma con una chiara direzionalità che si rifà a quella del centro storico e che risulta la più adatta ad accogliere gli sviluppi futuri della città. Il progetto cerca quindi di interfacciarsi sempre con quelle che sono le preesistenze (come nel caso della Chiesa di S. Maria Mediatrice), per cui si perde una lettura chiusa del quartiere, a favore di un intervento che vuole essere una ricucitura piuttosto che un'imposizione al luogo. Diretta conseguenza è stata quindi la scelta di lavorare sugli spazi aperti, diversificandoli e caratterizzandoli a seconda delle situazioni, intesi come elementi di relazione, generatori di una fluida sequenza di luoghi, in cui l'edificio che vi trova sede non può essere scisso dal contesto circostante, ma ne diventa elemento complementare. Lo spazio assume così diverse declinazioni nel passaggio dal pubblico al privato, privo di cesure nette, alla ricerca di un abitare collettivo senza rinunce alla propria individualità. Alla varietà dei luoghi, si affianca anche la progettazione diversificata degli alloggi, per rispondere alle contemporanee esigenze dell'abitare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio si occupa di indagare lo stato delle popolazioni di alici, Engraulis encrasicolus, e sardine, Sardina pilchardus, presenti nel Mar Adriatico Centrale e Settentrionale attraverso l’utilizzo di metodi di dinamica di popolazione. L’attenzione per queste specie è dovuta alla loro importanza commerciale; sono, infatti, specie “target” della flotta peschereccia italiana, in particolare nell’area adriatica. I metodi di dinamica di popolazione sono uno degli aspetti più importanti delle scienze della pesca. Attraverso lo stock assessment si possono acquisire informazioni sull’abbondanza in mare delle risorse nel tempo e nello spazio, nonché sulla mortalità dovuta all’attività di pesca, che sono di primaria importanza per l’adozione di misure gestionali. I metodi di dinamica di popolazione esaminati e confrontati in questa tesi sono stati due: Virtual Population Analysis (VPA) e Integrated Catch-at-Age Analysis (ICA). Prima, però, è stato necessario esaminare le modalità con cui ottenere i dati di “input”, quali: tassi di crescita delle specie, mortalità naturale, sforzo di pesca, dati di cattura. Infine, è stato possibile ricostruire nel tempo la storia dello stock in questione e il suo stato attuale, dando indicazioni per lo sfruttamento futuro in un’ottica di conservazione dello stock stesso. Attraverso la determinazione della curva di crescita si sono potuti ottenere i parametri di crescita delle specie in esame, necessari per definire i tassi di mortalità naturale. L’abbondanza di questi stock è stata valutata con i programmi Age Length Key (ALK) e Iterative Age Length Key (IALK). Nei programmi di stock assessment utilizzati si è preferito utilizzare la stima di abbondanza calcolata con il primo metodo, in quanto più rappresentativo dello stock in esame. Un parametro di fondamentale importanza e di difficile stima è la mortalità; in particolare, in questo studio ci siamo occupati di determinare la mortalità naturale. Questa è stata determinata utilizzando due programmi: ProdBiom (Abella et al., 1998) e il sistema ideato da Gislason et al. (2008). Nonostante l’approccio conservativo suggerisca l’utilizzo dei valori ricavati da ProdBiom, in quanto più bassi, si è preferito utilizzare i tassi di mortalità naturale ricavati dalla seconda procedura. Questa preferenza è stata determinata dal fatto che il programma ProdBiom consegna indici di mortalità naturale troppo bassi, se confrontati con quelli presentati in letteratura per le specie in esame. Inoltre, benché nessuno dei due programmi sia stato costruito appositamente per le specie pelagiche, è comunque preferibile la metodologia ideata da Gislason et al. (2008), in quanto ottenuta da un esame di 367 pubblicazioni, in alcune delle quali erano presenti dati per queste specie. Per quanto riguarda i dati di cattura utilizzati in questo lavoro per il calcolo della Catch Per Unit Effort (CPUE, cioè le catture per unità di sforzo), si sono utilizzati quelli della marineria di Porto Garibaldi, in quanto questa vanta una lunga serie temporale di dati, dal 1975 ad oggi. Inoltre, in questa marineria si è sempre pescato senza imposizione di quote e con quantitativi elevati. Determinati questi dati è stato possibile applicare i programmi di valutazione degli stock ittici: VPA e ICA. L’ICA risulta essere più attendibile, soprattutto per gli anni recenti, in quanto prevede un periodo nel quale la selettività è mantenuta costante, riducendo i calcoli da fare e, di conseguenza, diminuendo gli errori. In particolare, l’ICA effettua i suoi calcoli considerando che i dati di cattura e gli indici di “tuning” possono contenere degli errori. Nonostante le varie differenze dei programmi e le loro caratteristiche, entrambi concordano sullo stato degli stock in mare. Per quanto riguarda l’alice, lo stock di questa specie nel Mar Adriatico Settentrionale e Centrale, altamente sfruttato in passato, oggi risulta moderatamente sfruttato in quanto il livello di sfruttamento viene ottenuto con un basso livello di sforzo di pesca. Si raccomanda, comunque, di non incrementare lo sforzo di pesca, in modo da non determinare nuove drastiche diminuzioni dello stock con pesanti conseguenze per l’attività di pesca. Le sardine, invece, presentano un trend diverso: dalla metà degli anni ottanta lo stock di Sardina pilchardus ha conosciuto un continuo e progressivo declino, che solo nell’ultimo decennio mostra un’inversione di tendenza. Questo, però, non deve incoraggiare ad aumentare lo pressione di pesca, anzi bisogna cercare di mantenere costante lo sforzo di pesca al livello attuale in modo da permettere il completo ristabilimento dello stock (le catture della flotta italiana sono, infatti, ancora relativamente basse). Questo lavoro, nonostante i vari aspetti da implementare (quali: il campionamento, le metodologie utilizzate, l’introduzione di aspetti non considerati, come ad es. gli scarti,… etc.) e le difficoltà incontrate nel suo svolgimento, ha fornito un contributo di approfondimento sugli spinosi aspetti della definizione del tasso di mortalità naturale, individuando una procedura più adatta per stimare questo parametro. Inoltre, ha presentato l’innovativo aspetto del confronto tra i programmi ICA e VPA, mostrando una buon accordo dei risultati ottenuti. E’ necessario, comunque, continuare ad approfondire questi aspetti per ottenere valutazioni sempre più precise e affidabili, per raggiungere una corretta gestione dell’attività di pesca e ai fini della preservazione degli stock stessi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggiore richiesta energetica di questi anni, associata alla diminuzione delle riserve di combustibile fossile e ai problemi di inquinamento ambientale hanno spinto il settore scientifico verso la ricerca di nuovi dispositivi che presentino elevata efficienza e quantità di emissioni ridotta. Tra questi, le celle a combustibile (fuel cells) alimentate con idrogeno o molecole organiche come etanolo, acido formico e metanolo, hanno particolare rilevanza anche se attualmente risultano particolarmente costose. Una delle principali sfide di questi ultimi anni è ridurne i costi e aumentarne l'efficienza di conversione in energia. Per questo scopo molti sforzi vengono condotti verso l'ottimizzazione dei catalizzatori a base di Pt spostando l’attenzione verso sistemi nanostrutturati ad elevata attività catalitica e buona stabilità. Durante questo lavoro di tesi si è affrontato lo studio relativo alla preparazione di elettrodi modificati con PtNPs ottenute per elettrodeposizione, un metodo semplice ed efficace per poterne controllare i parametri di deposizione e crescita e per ottenere direttamente le nanoparticelle sulla superficie dell’elettrodo. Come materiale elettroattivo si è utilizzato un foglio di grafite, denominato (Pure Graphite Sheet = PGS). Tale superficie elettrodica, meno costosa e più conduttiva rispetto all’ITO, si presenta sotto forma di fogli flessibili resistenti ad alte temperature e ad ambienti corrosivi e quindi risulta conveniente qualora si pensi ad un suo utilizzo su scala industriale. In particolare è stato studiato come la variazione di alcuni parametri sperimentali quali: i) il tempo di elettrodeposizione e ii) la presenza di stabilizzanti tipo: KI, acido dodecil benzene sulfonico (DBSA), poli vinil pirrolidone (PVP) o poliossietilene ottilfenil etere (Triton-X100) e iii) la concentrazione degli stessi stabilizzanti, potessero influire sulle dimensioni ed eventualmente sulla morfologia delle PtNPs. in fase di elettrodeposizione. L’elettrosintesi è stata effettuata per via cronoamperometria. I film di PtNPs sono stati caratterizzati utilizzando tecniche di superficie quali microscopia a scansione elettronica (SEM) e Voltammetria Ciclica (CV). Al fine di valutare le capacità elettrocatalitiche delle diverse PtNPs ottenute si è studiata la reazione di ossidazione del metanolo in ambiente acido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’H2 è attualmente un elemento di elevato interesse economico, con notevoli prospettive di sviluppo delle sue applicazioni. La sua produzione industriale supera attualmente i 55 ∙ 1010 m3/anno, avendo come maggiori utilizzatori (95% circa) i processi di produzione dell’ammoniaca e quelli di raffineria (in funzione delle sempre più stringenti normative ambientali). Inoltre, sono sempre più importanti le sue applicazioni come vettore energetico, in particolare nel settore dell’autotrazione, sia dirette (termochimiche) che indirette, come alimentazione delle fuel cells per la produzione di energia elettrica. L’importanza economica degli utilizzi dell’ H2 ha portato alla costruzione di una rete per la sua distribuzione di oltre 1050 km, che collega i siti di produzione ai principali utilizzatori (in Francia, Belgio, Olanda e Germania). Attualmente l’ H2 è prodotto in impianti di larga scala (circa 1000 m3/h) da combustibili fossili, in particolare metano, attraverso i processi di steam reforming ed ossidazione parziale catalitica, mentre su scala inferiore (circa 150 m3/h) trovano applicazione anche i processi di elettrolisi dell’acqua. Oltre a quella relativa allo sviluppo di processi per la produzione di H2 da fonti rinnovabili, una tematica grande interesse è quella relativa al suo stoccaggio, con una particolare attenzione ai sistemi destinati alle applicazioni nel settore automotivo o dei trasposti in generale. In questo lavoro di tesi, svolto nell’ambito del progetto europeo “Green Air” (7FP – Transport) in collaborazione (in particolare) con EADS (D), CNRS (F), Jonhson-Matthey (UK), EFCECO (D), CESA (E) e HyGEAR (NL), è stato affrontato uno studio preliminare della reazione di deidrogenazione di miscele di idrocarburi e di differenti kerosene per utilizzo aereonautico, finalizzato allo sviluppo di nuovi catalizzatori e dei relativi processi per la produzione di H2 “on board” utilizzando il kerosene avio per ottenere, utilizzando fuel cells, l’energia elettrica necessaria a far funzionare tutta la strumentazione ed i sistemi di comando di aeroplani della serie Airbus, con evidenti vantaggi dal punto di vista ponderale e delle emissioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio di fattibilità per la realizzazione di un modulo ERP con l'utilizzo di Apache Struts 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ci focalizzeremo sul connubio TV ed internet che rivoluzionerà l’erogazione dei servizi verso i telespettatori e di conseguenza il marketing pubblicitario in questo contesto. Partiremo dalla storia della televisione in Italia e dei dispositivi TV per poi analizzare i primi fenomeni di utilizzo televisivo del canale web e la conseguente nascita dei primi social media e servizi di video on demand. La seconda parte di questa tesi farà una larga panoramica sul marketing televisivo ed il web marketing, fino ad arrivare al punto di massima prossimità tra i due canali, ovvero l’advertising correlato ai contenuti video presenti sul web. Nella terza ed ultima parte analizzeremo le prime piattaforme di WebTV e servizi di internet television, per poi focalizzarci sui probabili risvolti e prospettive future sia a livello di fruizione dei contenuti che pubblicitario. Questo fenomeno avrà una netta influenza nel Marketing considerando che dal 1984 la TV è il mezzo che raccoglie la maggior parte degli investimenti pubblicitari ed il web è il media in maggiore ascesa a livello di penetrazione e popolarità negli ultimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi piu' che mai e' fondamentale essere in grado di estrarre informazioni rilevanti e conoscenza dal grande numero di dati che ci possono arrivare da svariati contesti, come database collegati a satelliti e sensori automatici, repository generati dagli utenti e data warehouse di grandi compagnie. Una delle sfide attuali riguarda lo sviluppo di tecniche di data mining per la gestione dell’incertezza. L’obiettivo di questa tesi e' di estendere le attuali tecniche di gestione dell’incertezza, in particolare riguardanti la classificazione tramite alberi decisionali, in maniera tale da poter gestire incertezza anche sull’attributo di classe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio effettuato verte sulla ricerca delle cave storiche di pietra da taglio in provincia di Bologna, facendo partire la ricerca al 1870 circa, data in cui si hanno le prime notizie cartacee di cave bolognesi. Nella ricerca si è potuto contare sull’aiuto dei Dott. Stefano Segadelli e Maria Tersa De Nardo, geologi della regione Emilia-Romagna, che hanno messo a disposizione la propria conoscenza e le pubblicazioni della regione a questo scopo. Si è scoperto quindi che non esiste in bibliografia la localizzazione di tali cave e si è cercato tramite l’utilizzo del software ArcGIS , di georeferenziarle, correlandole di informazioni raccolte durante la ricerca. A Bologna al momento attuale non esistono cave di pietra da taglio attive, così tutte le fonti che si sono incontrate hanno fornito dati parziali, che uniti hanno permesso di ottenere una panoramica soddisfacente della situazione a inizio secolo scorso. Le fonti studiate sono state, in breve: il catasto cave della regione Emilia-Romagna, gli shape preesistenti della localizzazione delle cave, le pubblicazioni “Uso del Suolo”, oltre ai dati forniti dai vari Uffici Tecnici dei comuni nei quali erano attive le cave. I litotipi cavati in provincia sono quattro: arenaria, calcare, gesso e ofiolite. Per l’ofiolite si tratta di coltivazioni sporadiche e difficilmente ripetibili dato il rischio che può esserci di incontrare l’amianto in queste formazioni; è quindi probabile che non verranno più aperte. Il gesso era una grande risorsa a fine ‘800, con molte cave aperte nella Vena del Gesso. Questa zona è diventata il Parco dei Gessi Bolognesi, lasciando alla cava di Borgo Rivola il compito di provvedere al fabbisogno regionale. Il calcare viene per lo più usato come inerte, ma non mancano esempi di formazioni adatte a essere usate come blocchi. La vera protagonista del panorama bolognese rimane l’arenaria, che venne usata da sempre per costruire paesi e città in provincia. Le cave, molte e di ridotte dimensioni, sono molto spesso difficili da trovare a causa della conseguente rinaturalizzazione. Ci sono possibilità però di vedere riaprire cave di questo materiale a Monte Finocchia, tramite la messa in sicurezza di una frana, e forse anche tramite la volontà di sindaci di comunità montane, sensibili a questo argomento. Per avere una descrizione “viva” della situazione attuale, sono stati intervistati il Dott. Maurizio Aiuola, geologo della Provincia di Bologna, e il Geom. Massimo Romagnoli della Regione Emilia-Romagna, che hanno fornito una panoramica esauriente dei problemi che hanno portato ad avere in regione dei poli unici estrattivi anziché più cave di modeste dimensioni, e delle possibilità future. Le grandi cave sono, da parte della regione, più facilmente controllabili, essendo poche, e più facilmente ripristinabili data la disponibilità economica di chi la gestisce. Uno dei problemi emersi che contrastano l’apertura di aree estrattive minori, inoltre, è la spietata concorrenza dei materiali esteri, che costano, a parità di qualità, circa la metà del materiale italiano. Un esempio di ciò lo si è potuto esaminare nel comune di Sestola (MO), dove, grazie all’aiuto e alle spiegazioni del Geom. Edo Giacomelli si è documentato come il granito e la pietra di Luserna esteri utilizzati rispondano ai requisiti di resistenza e non gelività che un paese sottoposto ai rigori dell’inverno richiede ai lapidei, al contrario di alcune arenarie già in opera provenienti dal comune di Bagno di Romagna. Alla luce di questo esempio si è proceduto a calcolare brevemente l’ LCA di questo commercio, utilizzando con l’aiuto dell’ Ing. Cristian Chiavetta il software SimaPRO, in cui si è ipotizzato il trasporto di 1000 m3 di arenaria da Shanghai (Cina) a Bologna e da Karachi (Pakistan) a Bologna, comparandolo con le emissioni che possono esserci nel trasporto della stessa quantità di materiale dal comune di Monghidoro (BO) al centro di Bologna. Come previsto, il trasporto da paesi lontani comporta un impatto ambientale quasi non comparabile con quello locale, in termini di consumo di risorse organiche e inorganiche e la conseguente emissione di gas serra. Si è ipotizzato allora una riapertura di cave locali a fini non edilizi ma di restauro; esistono infatti molti edifici e monumenti vincolati in provincia, e quando questi devono essere restaurati, dove si sceglie di cavare il materiale necessario e rispondente a quello già in opera? Al riguardo, si è passati attraverso altre due interviste ai Professori Francesco Eleuteri, architetto presso la Soprintendenza dei Beni Culturali a Bologna e Gian Carlo Grillini, geologo-petrografo e esperto di restauro. Ciò che è emerso è che effettivamente non esiste attualmente una panoramica soddisfacente di quello che è il patrimonio lapideo della provincia, mancando, oltre alla georeferenziazione, una caratterizzazione minero-petrografica e fisico-meccanica adeguata a poter descrivere ciò che veniva anticamente cavato; l’ipotesi di riapertura a fini restaurativi potrebbe esserci, ma non sembra essere la maggiore necessità attualmente, in quanto il restauro viene per lo più fatto senza sostituzioni o integrazioni, tranne rari casi; è pur sempre utile avere una carta alla mano che possa correlare l’edificio storico con la zona di estrazione del materiale, quindi entrambi i professori hanno auspicato una prosecuzione della ricerca. Si può concludere dicendo che la ricerca può proseguire con una migliore e più efficace localizzazione delle cave sul terreno, usando anche come fonte il sapere della popolazione locale, e di procedere con una parte pratica che riguardi la caratterizzazione minero-petrografica e fisico-meccanica. L’utilità di questi dati può esserci nel momento in cui si facciano ricerche storiche sui beni artistici presenti a Bologna, e qualora si ipotizzi una riapertura di una zona estrattiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio sviluppato nella tesi fa riferimento all’ampio database sperimentale raccolto presso il sito campione di Treporti (VE), nell’ambito di un progetto di ricerca finalizzato alla caratterizzazione geotecnica del complesso sottosuolo della Laguna Veneta. Il sottosuolo lagunare è infatti caratterizzato da una fitta alternanza di sedimenti a matrice prevalentemente limosa, dal comportamento intermedio fra sabbie e argille. Il progetto di ricerca prevedeva la realizzazione di una vasta campagna di indagini in sito, articolata in più fasi e integrata da un programma sperimentale di laboratorio; nell’area in esame è stato inoltre costruito un rilevato sperimentale in vera grandezza, continuamente monitorato con una sofisticata strumentazione per circa quattro anni, fino alla sua graduale rimozione. Il lavoro di tesi proposto riguarda l’analisi dei dati provenienti dalle numerose prove dilatometriche (DMT) e con piezocono (CPTU) effettuate a Treporti, con particolare riferimento alle prove di tipo sismico (SDMT e SCPTU) realizzate sia prima della costruzione del rilevato sia a seguito della rimozione dello stesso. Rispetto alla prove “tradizionali”, le prove sismiche permettono anche la misura della velocità delle onde di taglio (Vs), la cui conoscenza è richiesta anche dalle recenti Norme Tecniche delle Costruzioni e della quale è possibile risalire agevolmente al modulo di rigidezza elastico a piccolissime deformazioni (G0). L’enorme database raccolto in questo sito offre tra l’altro l’interessante ed inusuale possibilità di mettere a confronto dati ricavati da prove dilatometriche e con piezocono relative a verticali adiacenti, svolte in diverse fasi della storia di carico imposta al sottosuolo dell’area mediante la costruzione del rilevato. L’interpretazione dei dati penetrometrici e dilatometrici è stata fatta utilizzando i più recenti approcci interpretativi proposti nella letteratura del settore. È importante sottolineare che la possibilità di classificare e stimare i parametri meccanici del sottosuolo lagunare a partire da prove diverse ha permesso una valutazione critica delle procedure interpretative adottate e, in taluni casi, ha messo in evidenza i limiti di alcuni approcci, pur se limitatamente al caso specifico in esame. In alcuni casi, grazie all’uso integrato delle prove dilatometriche e penetrometriche è stato possibile mettere a punto specifiche correlazioni alternative a quelle esistenti, calibrate sui dati sperimentali di Treporti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mia tesi dal titolo ”Applicazione della tecnica PSinSAR™ allo studio di fenomeni franosi lenti: casi di studio in Emilia-Romagna” ha avuto come obiettivo quello di mostrare le potenzialità e i limiti della tecnica PSinSAR nel monitoraggio di fenomeni franosi localizzati in Val Marecchia. Ho svolto, nel capitolo due, un’analisi preliminare dell’area di studio andando a evidenziare prima le caratteristiche climatiche, piogge medie annue e le temperature minime e massime, e a seguire sono passato a descrivere l’inquadramento geologico e geomorfologico. L’area della Val Marecchia è, da questo punto di vista, molto particolare poggiando su quella che è definita dagli autori “coltre della Val Marecchia”; essa è un complesso alloctono sovrascorso ai terreni autoctoni della successione Umbro – Romagnola - Marchigiana. La traslazione verso Est della coltre avvenne per "scatti", in funzione delle principali fasi tettoniche appenniniche, separati da momenti di pausa in cui sedimentarono le formazioni più recenti le quali poi si spostarono in modo solidale con la coltre. La coltre, infatti, è costituita da un insieme di formazioni di età diverse e in particolare ritroviamo, partendo da quella più antica l’unità ligure, l’unità subligure e infine l’unità epiligure. La presenza di formazioni più recenti sopra ad altre più antiche rende unica la morfologia della vallata con enormi blocchi rocciosi poggianti su un substrato in genere argilloso come nell’esempio più famoso della rupe di San Leo. Da queste analisi è emersa un’altra caratteristica peculiare della valle cioè la forte tendenza a essere interessata da dissesti di varie tipologie. Gli indici di franosità mostrano che nella zona alta della vallata circa il 50% del territorio è interessato da dissesti, valore che decresce leggermente nella parte media e bassa della valle. Il motivo di tale instabilità è da imputare in parte alla forte erosione che avviene sulle placche epiliguri e in parte alle caratteristiche scadenti del substrato che è per lo più composto di argille e arenarie. Per quanto riguarda le tipologie di frane in Val Marecchia la situazione è molto eterogenea; in particolari le tre tipologie più frequenti sono il colamento lento, lo scivolamento rotazionale/traslativo e le frane di tipo complesso. Nel terzo capitolo ho descritto la tecnica PSinSAR; essa si basa sull’elaborazione di scene riprese da satellite per giungere alla formazione di una rete di punti, i PS, di cui conosciamo i movimenti nel tempo. I Permanent Scatterer (PS) sono dei bersagli radar individuati sulla superficie terrestre dal sensori satellitari caratterizzati per il fatto di possedere un’elevata stabilità nel tempo alla risposta elettromagnetica. I PS nella maggior parte dei casi corrispondono a manufatti presenti sulla superficie quali edifici, monumenti, strade, antenne e tralicci oppure ad elementi naturali come per esempio rocce esposte o accumuli di detrito. Lo spostamento viene calcolato lungo la linea di vista del satellite, per cui il dato in uscita non mostra lo spostamento effettivo del terreno, ma l'allontanamento o l'avvicinamento del punto rispetto al satellite. La misure sono sempre differenziali, ovvero sono riferite spazialmente a un punto noto a terra chiamato reference point, mentre temporalmente alla data di acquisizione della prima immagine. La tecnica PSinSAR proprio per la sua natura è "cieca" rispetto ai movimenti in direzione Nord-Sud. Le scene utilizzate per la creazione dei dataset di PS derivano quasi interamente dai satelliti ERS e ENVISAT. Tuttora sono disponibili anche le scene dei satelliti TerraSAR-X, RADARSAT e Cosmo Skymed. I sensori utilizzati in questo ambito sono i SAR (Synthetic Aperture Radar) che sono sensori attivi, cioè emettono loro stessi l'energia necessaria per investigare la superficie terrestre al contrario dei sensori ottici. Questo permette di poter acquisire scene anche di notte e in condizioni di cielo nuvoloso. La tecnica PSinSAR presenta molti vantaggi rispetto alle tecniche interferometriche tradizionali essa, infatti, è immune agli errori di decorrelamento temporale e spaziale oltre agli errori atmosferici, che portavano ad avere precisioni non inferiori a qualche cm, mentre ora l’errore di misura sulla velocità media di spostamento si attesta in genere sui 2 mm. La precisione che si ha nella georeferenziazione dei punti è in genere di circa 4-7 m lungo la direzione Est e circa 1-2 m in quella Nord. L’evoluzione di PSinSAR, SqueeSAR, permette un numero maggiore di punti poiché oltre ai Permanent Scatterers PS, tramite un apposito algoritmo, calcola anche i Distribuited Scatterer DS. I dataset di dati PS che ho utilizzato nel mio lavoro di tesi (PSinSAR) derivano, come detto in precedenza, sia da scene riprese dal satellite ERS che da ENVISAT nelle due modalità ascendenti e discendenti; nel primo caso si hanno informazioni sui movimenti avvenuti tra il 1992 e il 2000 mentre per l’ENVISAT tra il 2002 e il 2008. La presenza di dati PS nelle due modalità di ripresa sulla stessa zona permette tramite alcuni calcoli di ricavare la direzione effettiva di spostamento. È importante però sottolineare che, a seconda della modalità di ripresa, alcune aree possono risultare in ombra, per questo nell’analisi dei vari casi di studio non sempre sono stati utilizzabili tutti i dataset. Per l'analisi dei vari casi di studio, presentati nel capitolo 4, ho utilizzato diverso materiale cartografico. In particolare mi sono servito delle Carte Tecniche Regionali (CTR) a scala 1:10000 e 1:5000, in formato digitale, come base cartografica. Sempre in formato digitale ho utilizzato anche le carte geologiche e geomorfologiche dell'area della Val Marecchia (fogli 266, 267, 278) oltre, per finire, agli shapefile presi dal database online del Piano stralcio dell’Assetto Idrogeologico PAI. Il software usato per la realizzazione del lavoro di tesi è stato ArcGIS di proprietà di ESRI. Per ogni caso di studio ho per prima cosa effettuato un'analisi dal punto di vista geologico e geomorfologico, in modo da fare un quadro delle formazioni presenti oltre ad eventuali fenomeni franosi mostrati dalle carte. A seguire ho svolto un confronto fra il dato PS, e quindi i valori di spostamento, e la perimetrazione mostrata nel PAI. Per alcuni casi di studio il dato PS ha mostrato movimenti in aree già perimetrate nel PAI come "in dissesto", mentre in altri il dato satellitare ha permesso di venire a conoscenza di fenomeni non conosciuti (come ad esempio nel caso di Monte Gregorio). Per ogni caso di studio ho inoltre scelto alcuni PS caratteristici (solitamente quelli a coerenza maggiore) e ho ricavato la relativa serie storica. In questo modo è stato possibile verificare lo spostamento durante tutti gli anni in cui sono state prese le scene (dal 1992 al 2000 per dati ERS, dal 2002 al 2008 per dati ENVISAT) potendo quindi mettere in luce accelerazioni o assestamenti dei fenomeni nel tempo, oltre a escludere la presenza di trend di spostamento anomali imputabili nella maggior parte dei casi a errori nel dato. L’obiettivo della tesi è stato da una parte di verificare la bontà del dato PS nell’interpretazione dei movimenti dovuti a dissesti franosi e dall’altra di fare un confronto tra il dato di spostamento ricavato dai PS e i vari inventari o carte di piano. Da questo confronto sono emerse informazioni molti interessanti perché è stato possibile avere conferme di movimento su dissesti già conosciuti (Sant’Agata Feltria, San Leo e altri) ma anche di venire a conoscenza di fenomeni non conosciuti (Monte Gregorio). In conclusione è emerso dal mio lavoro che il monitoraggio tramite tecnica PSinSAR necessita di essere integrato con le tecniche tradizionali poiché presenta alcune limitazioni importanti come l’impossibilità di "vedere" movimenti veloci o lungo la direzione Nord-Sud, oltre ad avere dati in aree vegetate o scarsamente abitate. I vantaggi sono però notevoli potendo monitorare con un’unica ripresa vaste porzioni di territorio oltre ad avere serie storiche consistenti, in grado di evidenziare i movimenti avvenuti nel passato. Tale tecnica quindi, secondo il mio parere, può essere utilizzata come supporto alla stesura di cartografia di fenomeni franosi fornendo informazioni aggiuntive rispetto alle varie tecniche tradizionali come il GPS, sondaggi geotecnici e sondaggi inclinometrici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Rocca delle Caminate nella coscienza e nell’immaginario Ben volentieri mi sono occupato dell’ambizioso progetto di restauro e recupero funzionale della Rocca delle Caminate, perché se è vero che il complesso ha rivestito un’importanza rilevante sotto il profilo storico e politico di questa parte di Romagna, è pur vero che vive nei miei ricordi fin dall’epoca dell’infanzia, ed è venuto acquistando nel tempo un preciso valore nella mia coscienza e nel mio immaginario. Questa rocca, questa fortificazione, questa torre che si staglia all’orizzonte dominando con austerità le amene vallate, l’ho sempre veduta e ha sempre sollevato in me suggestioni e interrogativi che però non mi ero mai preoccupato di chiarire: ero, per così dire, rimasto fedele alla mia emotività e mi erano bastati i racconti di nonna che andava spesso rammentando di quando, durante il ventennio fascista, insieme alle sorelle percorreva a piedi i sentieri che dalla vicina Dogheria conducevano alle Caminate, in occasione di una tal festa o di una tal funzione religiosa. Le sue parole e i suoi racconti continuano a donarmi un po’ del profumo dell’epoca, e fa specie notare come ancora oggi – in un tempo che fa dello sfavillio delle luci sfoggio di opulenza e miraggio di benessere – vengano puntualmente traditi dall’ammirazione per un faro che all’epoca ruotava emanando luce verde, bianca e rossa: quella del tricolore italiano. La Rocca delle Caminate – dicevo – è sempre stata una veduta familiare e fin troppo consuetudinaria, nei cui riguardi ero quasi giunto a una sorta d’indolenza intellettuale. Eppure, alla vigilia di decidere l’oggetto di questa tesi, ho volto lo sguardo ancora verso la “torre che domina a meraviglia il circostante paese”, ma in questa circostanza trovandomi cambiato: non più solo emozionato dal racconto nella memoria degli anziani, bensì spinto a una sfida anche per onorare il loro attaccamento verso questa fortificazione. È un popolo, quello che ho trovato, che mi ha stupito alquanto per la capacità di ricordare. Voglio dire ricordo, non trasognata visione; sottolineo fulgida testimonianza, non di rado animata dalla fierezza di chi sente fortemente il radicamento a una terra e rivendica il diritto di poter un giorno rivedere la ‘propria’ Rocca come l’ha veduta un tempo, poterla finalmente visitare e toccare, al di là di ogni colore politico, al di là di ogni vicenda passata, bella o brutta che sia. Poterla, in concreto, vivere. Così, un giorno ho varcato il limite dell’ingresso della Rocca e ho iniziato a camminare lungo il viale che conduce al castello; mi sono immerso nel parco e ho goduto della frescura dei pini, dei frassini e dei cipressi che fanno da contorno alla fortificazione. Certamente, ho avvertito un po’ di soggezione giunto ai piedi dell’arce, e mi è sorto spontaneo pormi alcune domande: quanti fanti e cavalieri saranno giunti a questa sommità in armi? Quanti ne saranno morti travolti nella furia della battaglia? Quanti uomini avranno provveduto alla sicurezza di questi bastioni oggi privati per sempre delle originarie mura difensive? Quanti castellani avranno presieduto alla difesa del castro? Ma più che a ogni altra cosa, il mio pensiero è andato a un protagonista della storia recente, a Benito Mussolini, che fra la fine degli anni venti e l’inizio degli anni trenta aveva eletto questo luogo a dimora estiva. Camminando lungo i corridoi della residenza e visitando le ampie stanze, nel rimbombo dei miei passi è stato pressoché impossibile non pensare a quest’uomo che si riconosceva in un duce e che qui ha passato le sue giornate, qui ha indetto feste, qui ha tenuto incontri politici e ha preso importanti decisioni. Come dimenticare quel mezzobusto, quella testa, quella postura impettita? Come dimenticare quello sguardo sempre un po’ accigliato e quei proclami che coglievano il plauso delle masse prima ancora di essere compiutamente formulati? In questo clima, fra castellani, capitani, cavalieri e duces di ogni epoca, sono entrato in punta di piedi, procedendo ai rilevamenti e ai calcoli per la realizzazione di questo progetto. È vero, non è stato facile muoversi nel silenzio che avvolge questo posto magico senza romperne l’incanto, e se a volte, maldestramente, ho fatto più rumore del solito, me ne rammarico. Sono sicuro che questi illustri signori sapranno scusarmene.