1000 resultados para Realtà aumentata metodologie di progetto settore aerospaziale
Resumo:
E' stato sviluppato un modello del ciclo produttivo del materiale composito utilizzato in aeronautica e sono state svolte valutazioni comparative con altri materiali tradizionali utilizzati nello stesso ambito.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Modern Internal Combustion Engines are becoming increasingly complex in terms of their control systems and strategies. The growth of the algorithms’ complexity results in a rise of the number of on-board quantities for control purposes. In order to improve combustion efficiency and, simultaneously, limit the amount of pollutant emissions, the on-board evaluation of two quantities in particular has become essential; namely indicated torque produced by the engine and the angular position where 50% of fuel mass injected over an engine cycle is burned (MFB50). The above mentioned quantities can be evaluated through the measurement of in-cylinder pressure. Nonetheless, at the time being, the installation of in-cylinder pressure sensors on vehicles is extremely uncommon mainly because of measurement reliability and costs. This work illustrates a methodological approach for the estimation of indicated torque and MFB50 that is based on the engine speed fluctuation measurement. This methodology is compatible with the typical on-board application restraints. Moreover, it requires no additional costs since speed can be measured using the system already mounted on the vehicle, which is made of a magnetic pick-up faced to a toothed wheel. The estimation algorithm consists of two main parts: first, the evaluation of indicated torque fluctuation based on speed measurement and secondly, the evaluation of the mean value of the indicated torque (over an engine cycle) and MFB50 by using the relationship with the indicated torque harmonic and other engine quantities. The procedure has been successfully applied to an L4 turbocharged Diesel engine mounted on-board a vehicle.
Resumo:
Studio del componente di supporto del cavo utensile per taglio di materiali lapidei. Analisi delle applicazioni di leghe superelastiche e delle modalità di realizzazione del cavo utensile complessivo in relazione a specifiche esigenze poste a livello industriale.
Resumo:
La ricerca iniziata all’interno del Laboratorio di Sintesi Finale, e che ha continuato ad approfondirsi parallelamente al progetto durante lo sviluppo della tesi, si è basata sullo studio del tessuto urbano e sulla sperimentazione della sostituzione di porzioni dello stesso come strumento progettuale. Oggi, il patrimonio immobiliare italiano è in gran parte caratterizzato da edifici costruiti nel periodo dell’emergenza, degli anni Cinquanta e Sessanta; la maggior parte di esso è costituito da edilizia che ora necessita di interventi di manutenzione e rinnovo (anche dai punti di vista energetico, impiantistico e sismico), perchè nel periodo della loro realizzazione sono stati usati sistemi costruttivi sbrigativi e si è cercato di ridurre i costi. Si tratta di un fenomeno diffuso che interessa anche la zona della costa dell’Emilia-Romagna: oltre 130 km di riviera caratterizzati da diversi paesaggi che sono il risultato diretto del rapporto uomo-natura. “La presenza e l’azione dell’uomo è ed è stata dominante sul paesaggio costiero mediterraneo, a volte con grande sapienza, equilibrio e rispetto dei luoghi, altre volte con devastante consumo e depauperamento dell’ambiente e delle sue risorse”. Rimini e le sue frazioni fanno parte di un paesaggio fortemente antropizzato, che mostra chiaramente i segni di quegli anni di costruzione privi di pianificazione che hanno favorito lo sviluppo di una serie di nuclei costieri contigui, addensati all’interno di una porzione di territorio delimitata da due linee: quella ferroviaria e quella di costa. Il caso di Viserba è emblematico, perché oggi rappresenta il risultato di una edilizia che ha seguito un’ottica prevalentemente privatistica e speculativa. Il territorio, estremamente parcellizzato e denso, ha favorito la creazione di una sorta di confusione urbana tale da rendere difficilmente riconoscibili i caratteri originari del luogo. Il lungomare è diventato il manifesto di questo intervento, tanto che se si rivolgono le spalle al mare per osservare il primo fronte, ciò che si nota non sono di certo i villini storici, i quali passano inevitabilmente in secondo piano. Il nostro esercizio progettuale si è concentrato proprio sulla fascia litoranea che oggi non dialoga più con il mare, ponendoci come obiettivi, non solo lo sviluppo di una strategia di riqualificazione urbana, ma anche la ricerca di un modo per ristabilire attraverso un nuovo segno urbano, il legame perso tra acqua e terra. Fondamentali per il recupero del rapporto della città con il mare sono stati l’inserimento di spazi destinati alla collettività, percorsi, accessi al mare in grado di ricostituire la facciata marittima e di fungere da legante di un sistema unico che comprende sia la struttura urbana sia la fascia costiera, estendendoci fino alle barriere frangiflutti, che oggi costituiscono solo un limite visivo molto forte. La sfida che, pertanto, è stata lanciata già all’interno del laboratorio era quella di cercare una risposta progettuale, una strategia chiara e condivisa, che aspirasse a risolvere i problemi generati da quegli anni di edificazione “compulsiva” e senza regole all’interno del particolare contesto viserbese. La nostra ricerca è stata supportata dall’approfondimento di un tema comune principale, la sostituzione di tessuto urbano, che è diventato per noi lo strumento chiave per lo sviluppo del progetto. L’analisi si è concentrata, tra i vari aspetti, anche sulla situazione attuale italiana che è apparsa critica e poco incoraggiante a causa del basso livello qualitativo degli edifici nelle principali aree urbane (circa il 35% è stato costruito attorno agli anni Cinquanta ed è inefficiente da diversi punti di vista), della crisi del mercato immobiliare e del disagio sociale derivante da ragioni di vario tipo. L’Italia è un paese eccessivamente radicato a una scelta urbanistica conservativa e perciò ancora molto lontano dalla logica della sostituzione urbana. Quest’ultima può costituire il mezzo per redigere un coraggioso progetto strategico che, nell’ottica del lungo periodo, permetta di delineare un disegno dello sviluppo urbano delle nostre città, migliorandone le loro realtà urbane? Il dibattito oggi è molto acceso. Ed è proprio per tentare di trovare una possibile risposta a questo interrogativo che il nostro esercizio progettuale ha sperimentato questo tipo di intervento.
Resumo:
Agricoltura ed Energia sono le due parole cardine attorno a cui ruota questa tesi. La prima si trova ad oggi ad essere investita da enormi aspettative: ha implicazioni economiche, sociali, ambientali e territoriali. Offre opportunità occupazionali nelle aree rurali, favorisce il mantenimento di un tessuto sociale, ha funzioni produttive e di tutela ambientale. In Italia è profondamente diffusa ma mantiene caratteristiche molto differenti legate ai prodotti, al territorio e al paesaggio agrario. Andrebbe quindi meglio conosciuta, tutelata, ma soprattutto rinnovata per essere efficientemente inserita nel contesto dello sviluppo del nostro Paese. Ricercando nuove soluzioni e nuove idee, che dovrebbero essere alla base della ripresa dal periodo di crisi, ci si collega al secondo termine, meglio definito con un aggettivo descrittivo: rinnovabile. L'utilizzo di queste fonti è alla base delle odierne necessità di risparmio energetico e dell'uso razionale delle energie. Il primo passo è annullare gli sprechi incrementando lʼefficienza dei dispositivi che producono energia. Vengono qui analizzate diversi impianti ad energie rinnovabili proposti in un luogo specifico che si presta a vedere le diverse fonti agire in sinergia ed a servizio dell'agricoltura che rimane la vocazione principale del luogo in esame. La sinergia diventa quindi la chiave di lettura della tesi in quanto le rinnovabili sono caratterizzate da una imprevedibile variabilità per cui risulta funzionale un sistema integrativo che porti il progetto finale ad avere una maggiore continuità nel servizio in ogni periodo dell'anno.
Resumo:
Apertura, partecipazione, collaborazione e possibilità di creare una competenza collettiva sono i motivi che portano alla nascita e alla diffusione degli OpenData, i quali favoriscono l'interoperabilità e la trasparenza dei governi nei confronti dei cittadini, inoltre migliorano l'efficienza delle amministrazioni pubbliche, e mettono in grado le persone di affrontare meglio le decisioni che riguardano la loro vita potendo utilizzare informazioni che prima non erano disponibili. Il lavoro svolto nell'elaborato si colloca nel settore della mobilità urbana e nasce dalla decisione dell'azienda Tper di mettere a disposizione i propri dati in formato OpenData sul sito web http://www.tper.it/tper-open-data. L'obiettivo principale è la realizzazione di un'applicazione in grado di fornire informazioni in tempo reale sulle linee di autobus, e relative fermate, in una determinata area di interesse.
Resumo:
Il siero di latte e la scotta sono effluenti provenienti rispettivamente dal processo di trasformazione del latte in formaggio e ricotta. Il siero di latte contiene minerali, lipidi, lattosio e proteine; la scotta contiene principalmente lattosio. Il siero può essere riutilizzato in diversi modi, come l'estrazione di proteine o per l’alimentazione animale, mentre la scotta è considerata solamente un rifiuto. Inoltre, a causa degli ingenti volumi di siero prodotti nel mondo, vengono a crearsi seri problemi ambientali e di smaltimento. Destinazioni alternative di questi effluenti, come le trasformazioni biotecnologiche, possono essere un modo per raggiungere il duplice obiettivo di migliorare il valore aggiunto dei processi agroindustriali e di ridurre il loro impatto ambientale. In questo lavoro sono state studiate le condizioni migliori per produrre bioetanolo dal lattosio del siero e della scotta. Kluyveromyces marxianus è stato scelto come lievito lattosio-fermentante. Sono state effettuate fermentazioni su scala di laboratorio aerobiche e anaerobiche in batch, fermentazioni semicontinue in fase dispersa e con cellule immobilizzate in alginato di calcio,. Diverse temperature sono state testate per migliorare la produzione di etanolo. Le migliori prestazioni, per entrambe le matrici, sono state raggiunte a basse temperature (28°C). Anche le alte temperature sono compatibili con buone rese di etanolo nelle fermentazioni con siero. Ottimi risultati si sono ottenuti anche con la scotta a 37°C e a 28°C. Le fermentazioni semicontinue in fase dispersa danno le migliori produzioni di etanolo, in particolare con la scotta. Invece, l'uso di cellule di lievito intrappolate in alginato di calcio non ha migliorato i risultati di processo. In conclusione, entrambi gli effluenti possono essere considerati adatti per la produzione di etanolo. Le buone rese ottenute dalla scotta permettono di trasformare questo rifiuto in una risorsa.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
La seguente tesi presenta lo sviluppo di un sistema di controllo e gestione remota per il tracking di un satellite. Il progetto, denominato ALMATracker, è sviluppato dal corso di Ingegneria Aerospaziale della scuola di Ingegneria e Architettura Aerospaziale dell’Università di Bologna con sede a Forlì. Consiste nella creazione di una motorizzazione per antenne su due assi, movimentata da un hardware commerciale programmabile. Il posizionamento può essere eseguito sia manualmente, su richiesta di un utente da PC remoto, sia automaticamente secondo un’orbita preimpostata. I setpoint di velocità o posizione sono elaborati dal sistema fino ad ottenere un segnale che procede alla movimentazione in velocità dell’antenna. Il comando automatico, invece, orienta l’antenna in modo tale da mantenerla fissa su una traiettoria orbitale di uno specifico spacecraft. La movimentazione automatica segue funzioni polinomiali fornite dall’utente, ricavate da software di propagazione e predizione esterno al sistema ALMATracker. In questo caso il sistema deve procedere alla rotazione mantenendo la velocità richiesta dalla funzione polinomiale. Il controllo effettuato in catena chiusa è attuato tramite una serie di trasduttori di posizione presenti nel sistema.
Resumo:
Tale tesi si prefigge lo scopo di mettere in evidenza l'importanza dell'introduzione della cartella clinica elettronica dispositivo medico, nel reparto ospedaliero di cardiologia. Essa contiene dati inerenti l'intera cronologia degli eventi caratterizzanti il processo di cura del paziente ed assicura un accesso veloce e sicuro ai record clinici di interesse. Grazie al suo sviluppo, è stato possibile facilitare la cura, la diagnosi e la refertazione degli esami. E' necessario operare l'integrazione fra le diverse modalità di acquisizione, permettendo la comunicazione fra loro e col sistema informativo specifico del reparto, così da poter raccogliere velocemente informazioni coerenti e prive di errori, da inserire nella cartella clinica elettronica cardiologica. Per soddisfare tali esigenze di integrazione, è stato introdotto nell'ambito clinico, l'uso dei diversi profili di integrazione IHE, ognuno riguardante uno specifico settore sanitario. L'iniziativa IHE è volta a migliorare l'efficienza dei flussi di lavoro ospedalieri e della pratica clinica, sviluppando la condivisione delle informazioni e l'integrazione fra i sistemi informativi ospedalieri ed i vari software utilizzati dalle modalità, grazie alla gestione ed uso coordinato di più standard clinici già esistenti (per esempio, DICOM e HL7). Perciò, IHE offre una base solida e comune per l'efficace scambio informativo tra i dispositivi ospedalieri di interesse, sebbene essi parlino linguaggi differenti, assicurando così che le informazioni richieste per le decisioni cliniche, siano prive di errori e contraddizioni e facilmente reperibili dal personale sanitario.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
Descrizione del lavoro svolto per il recupero e la ristrutturazione della parte hardware e software del simulatore di volo DC9 attualmente in corso presso i laboratori hangar della Scuola di Ingegneria dell'Università di Bologna, Sede di Forlì.