985 resultados para Automotive, Design, Automobile, Linee di carattere
Resumo:
The aim of this proposal is to explain the paradigm of the American foreign policy during the Johnson Administration, especially toward Europe, within the NATO framework, and toward URSS, in the context of the détente, just emerged during the decade of the sixties. During that period, after the passing of the J. F. Kennedy, President L. B. Johnson inherited a complex and very high-powered world politics, which wanted to get a new phase off the ground in the transatlantic relations and share the burden of the Cold war with a refractory Europe. Known as the grand design, it was a policy that needed the support of the allies and a clear purpose which appealed to the Europeans. At first, President Johnson detected in the problem of the nuclear sharing the good deal to make with the NATO allies. At the same time, he understood that the United States needed to reassert their leadeship within the new stage of relations with the Soviet Union. Soon, the “transatlantic bargain” became something not so easy to dealt with. The Federal Germany wanted to say a word in the nuclear affairs and, why not, put the finger on the trigger of the atlantic nuclear weapons. URSS, on the other hand, wanted to keep Germany down. The other allies did not want to share the onus of the defense of Europe, at most the responsability for the use of the weapons and, at least, to participate in the decision-making process. France, which wanted to detach herself from the policy of the United States and regained a world role, added difficulties to the manage of this course of action. Through the years of the Johnson’s office, the divergences of the policies placed by his advisers to gain the goal put the American foreign policy in deep water. The withdrawal of France from the organization but not from the Alliance, give Washington a chance to carry out his goal. The development of a clear-cut disarm policy leaded the Johnson’s administration to the core of the matter. The Non-proliferation Treaty signed in 1968, solved in a business-like fashion the problem with the allies. The question of nuclear sharing faded away with the acceptance of more deep consultative role in the nuclear affairs by the allies, the burden for the defense of Europe became more bearable through the offset agreement with the FRG and a new doctrine, the flexible response, put an end, at least formally, to the taboo of the nuclear age. The Johnson’s grand design proved to be different from the Kennedy’s one, but all things considered, it was more workable. The unpredictable result was a real détente with the Soviet Union, which, we can say, was a merit of President Johnson.
Resumo:
This thesis deal with the design of advanced OFDM systems. Both waveform and receiver design have been treated. The main scope of the Thesis is to study, create, and propose, ideas and novel design solutions able to cope with the weaknesses and crucial aspects of modern OFDM systems. Starting from the the transmitter side, the problem represented by low resilience to non-linear distortion has been assessed. A novel technique that considerably reduces the Peak-to-Average Power Ratio (PAPR) yielding a quasi constant signal envelope in the time domain (PAPR close to 1 dB) has been proposed.The proposed technique, named Rotation Invariant Subcarrier Mapping (RISM),is a novel scheme for subcarriers data mapping,where the symbols belonging to the modulation alphabet are not anchored, but maintain some degrees of freedom. In other words, a bit tuple is not mapped on a single point, rather it is mapped onto a geometrical locus, which is totally or partially rotation invariant. The final positions of the transmitted complex symbols are chosen by an iterative optimization process in order to minimize the PAPR of the resulting OFDM symbol. Numerical results confirm that RISM makes OFDM usable even in severe non-linear channels. Another well known problem which has been tackled is the vulnerability to synchronization errors. Indeed in OFDM system an accurate recovery of carrier frequency and symbol timing is crucial for the proper demodulation of the received packets. In general, timing and frequency synchronization is performed in two separate phases called PRE-FFT and POST-FFT synchronization. Regarding the PRE-FFT phase, a novel joint symbol timing and carrier frequency synchronization algorithm has been presented. The proposed algorithm is characterized by a very low hardware complexity, and, at the same time, it guarantees very good performance in in both AWGN and multipath channels. Regarding the POST-FFT phase, a novel approach for both pilot structure and receiver design has been presented. In particular, a novel pilot pattern has been introduced in order to minimize the occurrence of overlaps between two pattern shifted replicas. This allows to replace conventional pilots with nulls in the frequency domain, introducing the so called Silent Pilots. As a result, the optimal receiver turns out to be very robust against severe Rayleigh fading multipath and characterized by low complexity. Performance of this approach has been analytically and numerically evaluated. Comparing the proposed approach with state of the art alternatives, in both AWGN and multipath fading channels, considerable performance improvements have been obtained. The crucial problem of channel estimation has been thoroughly investigated, with particular emphasis on the decimation of the Channel Impulse Response (CIR) through the selection of the Most Significant Samples (MSSs). In this contest our contribution is twofold, from the theoretical side, we derived lower bounds on the estimation mean-square error (MSE) performance for any MSS selection strategy,from the receiver design we proposed novel MSS selection strategies which have been shown to approach these MSE lower bounds, and outperformed the state-of-the-art alternatives. Finally, the possibility of using of Single Carrier Frequency Division Multiple Access (SC-FDMA) in the Broadband Satellite Return Channel has been assessed. Notably, SC-FDMA is able to improve the physical layer spectral efficiency with respect to single carrier systems, which have been used so far in the Return Channel Satellite (RCS) standards. However, it requires a strict synchronization and it is also sensitive to phase noise of local radio frequency oscillators. For this reason, an effective pilot tone arrangement within the SC-FDMA frame, and a novel Joint Multi-User (JMU) estimation method for the SC-FDMA, has been proposed. As shown by numerical results, the proposed scheme manages to satisfy strict synchronization requirements and to guarantee a proper demodulation of the received signal.
Resumo:
Discovery of the Nox family has led to the concept that ROS are “intentionally” generated and are biologically functional in various cell types. Over the last decades, ROS have been shown to be involved in several physiological and pathological processes and ROS producing enzymes have been suggested as a target for drug development. The mechanism involved in the prosurvival effect of cytokines on the human acute myeloid leukaemia cell lines M07e and B1647 is investigated. A decrease in intracellular reactive oxygen species (ROS) content, glucose transport activity and cell survival was observed in the presence of inhibitors of plasma membrane ROS sources, such as DPI and apocynin, and by small interference RNA for NOX2 in M07e cells. Furthermore, Nox generated ROS are required to sustain B1647 cell viability and proliferation; in fact, antioxidants such as EUK-134 or Nox inhibitors and siRNA direct cells to apoptotic cell death, suggesting that manipulation of cellular NOX2 and NOX4 could affect survival of leukemic cells. Moreover, hydrogen peroxide has been long thought to be freely diffusible but recent evidence suggest that specific mammalian aquaporin homologues (AQP8) possess the capacity to channel H2O2 across membrane. In this thesis is shown that inhibition of aquaporins diminishes intracellular ROS accumulation either when H2O2 is produced by Nox enzymes or when is added exogenously to the medium. These data suggest that specific inhibition of Nox enzymes and AQP8 could be an interesting novel anti-leukemic strategy.
Resumo:
The present work describes the development of a new body-counter system based on HPGe detectors and installed at IVM of KIT. The goal, achieved, was the improvement of the ability to detect internal contaminations in the human body, especially the ones concerning low-energy emitters and multiple nuclides. The development of the system started with the characterisation of detectors purchased for this specific task, with the optimisation of the different desired measurement configurations following and ending with the installation and check of the results. A new software has been developed to handle the new detectors.
Resumo:
Oggigiorno le richieste di rilievi tridimensionali e di rappresentazioni 3D ad alta qualità i sono sempre più frequenti, e coinvolgono un numero sempre maggiore di discipline e ambiti applicativi, quali quello industriale, medico, archeologico, forense, museale, ecc., con ulteriori prospettive di allargamento per quanto riguarda la natura ed il numero delle realizzazioni. Il lavoro di ricerca svolto, di natura prevalentemente applicata, vuole andare ad investigare un settore, quello degli oggetti di medie, medio-piccole e soprattutto piccole dimensioni, che, a parere dell’autore, non è stato ancora investigato a fondo;di questo d’altra parte dà riscontro il numero relativamente limitato di lavori presenti in letteratura su questo tema. Sebbene la metodologia di lavoro non sia concettualmente diversa da quella che si adotta comunemente in ambito close range, le problematiche che sono state incontrate nel corso dei diversi casi di studio analizzati nel periodo di dottorato hanno evidenziato la necessità di soluzioni tecniche e metodologiche specifiche, anche in funzione dei requisiti di precisione che competono ad oggetti di piccole dimensioni. Nel corso degli anni, si è visto un allargamento della base di utenti che trovano nel prodotto 3D un importante strumento di lavoro; si pensi alla cinematografia, alla computer grafica, alle simulazioni virtuali a partire da modelli 3D realistici, ecc. Questo trend sembra, al giorno d’oggi, non trovare ancora una battuta d’arresto. Considerando il settore dei Beni Culturali, per esempio, si tratta di un campo di applicazione delle tecniche geomatiche abbastanza ristretto e sostanzialmente nuovo, in quanto le problematiche di documentazione e visualizzazione di beni mobili ed immobili sono in genere indirizzate prevalentemente ad oggetti a scala di edificio, porzione di edificio o elementi quali bassorilievi e statue, comunque con un ordine di grandezza che va da qualche metro alla decina di metri. Qualora, come detto in precedenza, si volesse aumentare ulteriormente la scala di indagine e di rappresentazione, devono essere adottate delle tecniche di rilievo che possano fornire un'adeguata precisione, con strumenti e tecnologie che possano adattarsi alle diverse configurazioni e caratteristiche geometriche. Nella tesi viene dunque affrontata la problematica del rilievo e della modellazione tridimensionale, con alto livello di dettaglio, di oggetti di dimensioni che variano da qualche decina a pochi centimetri; una situazione di questo tipo può aversi in svariati ambiti, che vanno da quello industriale e del design a quello biologico e medico, dall’archeologia ed alla musealizzazione virtuale alle indagini forensi, ecc. Concentrando l’analisi al campo dei Beni Culturali, oggi oggetto di importanti ricerche applicative che trovano impulso anche dallo sviluppo delle nuove tecnologie, sono molto numerose e varie le occasioni in cui operare con oggetti di altissimo valore e dimensioni molto ridotte: un esempio immediato è quello fornito dal rilievo di reperti archeologici, ma nell’ambito del restauro, dell’analisi dei materiali, delle indagini non distruttive, le potenzialità sono di grandissimo interesse.. Comunemente, fino a poco tempo fa, e soprattutto in ambito museale, la documentazione geometrica di un bene culturale mobile di piccole dimensioni si è limitata ad una rappresentazione fotografica, riportante magari elementi metrici minimali, come un righello posto di fianco all’oggetto, in grado di fornire una scala di lettura. Ciò che si è in genere tenuto in scarsa considerazione, ma in grado invece di dare al contenuto informativo quel qualcosa in più rispetto alla semplice fotografia, è l’adozione di metodologie per un rilievo rigoroso e metrico, metodologie che possono essere di grandissimo interesse non solo a fini di studio e divulgazione dell’oggetto (si pensi alla problematica della virtualizzazione della fruizione di beni museali) ma anche per scopi diversi quali la duplicazione e riproduzione di copie dell’oggetto (a scala identica al vero o a scala diversa). Di frequente infatti ci si trova di fronte a problematiche legate alla salvaguardia e conservazione dell’oggetto, in termini di accesso e visione da parte del pubblico, di mantenimento in particolari condizioni microclimatiche, di difficoltà di manipolazione a fini di studio e misura, ecc. Nella tesi sono state prese in considerazione le due tecniche geomatiche che si prestano a soddisfare nel miglior modo possibile i requisiti di correttezza metrica e radiometrica che un rilievo ad elevata precisione richiede. Tali tecniche, rappresentate dalla fotogrammetria digitale con ottiche Macro e dal laser a scansione, in particolare del tipo a triangolazione, sono state sperimentate sul campo , in modo da poter valutarne le potenzialità, non solo alla luce dei risultati finali ottenuti, ma anche considerando i problemi al contorno che esse comportano. Nel corso di numerose sperimentazioni in laboratorio e sul campo sono stati analizzati problemi quali la calibrazione di obiettivi macro e la realizzazione di reticoli speciali atti allo scopo, la qualità dei DSM di origine laser e fotogrammetrica, l’estrazione di caratteristiche morfologiche di microrilievo, le conseguenze della compressione dei dati immagine, la calibrazione radiometrica ed il filtraggio delle immagini digitali, l’allineamento di nuvole di punti con algoritmi ICP.
Resumo:
La produzione di sedili auto rappresenta una delle principali applicazioni delle schiume poliuretaniche flessibili a bassa densità. La forte necessità di riduzione del peso totale del veicolo si traduce in una richiesta di significative riduzioni di densità dei materiali utilizzati per l’interno vettura. Tale riduzione deve tuttavia essere associata a migliorate proprietà, nel senso del mantenimento delle performance nel tempo, della sicurezza e del comfort. Ricerche di mercato hanno evidenziato la necessità di sviluppare schiume poliuretaniche con elevate performance in termini di comfort, associate a significative riduzioni di densità e significative riduzioni di spessori applicati, nell’ottica di produrre sedili sempre più sottili consentendo la massima flessibilità di design dell’interno del veicolo. Scopo del presente progetto è lo sviluppo di una nuova chimica associata a quella del poliuretano che permetta di ottenere un elevato comfort. Il corpo umano e maggiormente sensibile a vibrazioni con frequenza tra i 4 e gli 8 Hz. In questo intervallo di frequenze le vibrazioni trasmesse sono correlate con l’isteresi del materiale stesso. Solitamente basse isteresi sono associate a bassa trasmissività delle vibrazioni. I produttori di auto hanno quindi cominciato a valutare il comfort di un sedile in termini di isteresi del materiale stesso. Nel caso specifico è considerato un sedile confortevole se possiede una isteresi inferiore al 18%. Le performance in termini di comfort devono essere associate anche ad una bassa emissione di composti organici volatili, con particolare attenzione ad ammine e aldeidi, ad un 15% di riduzione di densità (l’obiettivo è raggiungere una densità di 60 g/L a fronte di una densità attuale che si colloca nel range 75-80 g/L), con proprietà fisico meccaniche e resistenza all’invecchiamento in grado di soddisfare i capitolati delle case automobilistiche. Recentemente la produzione di SMPs (silane-modified polymers) ricopre un ruolo fondamentale nel mercato dei sigillanti e degli adesivi. L’idea di utilizzare questa famiglia di silani nella produzione di schiume poliuretaniche flessibili risiede nel fatto che, esattamente come in sigillanti e adesivi, ci possa essere una reazione successiva a quella di formazione del PU che possa dare ulteriore reticolazione della frazione morbida. La reazione di post-curing del silano ha incontrato diverse problematiche relative alla scarsa reattività del silano stesso. Per attivare la reazione di idrolisi e oligomerizzazione si è utilizzato un acido di Brønsted (DBSA) ma l’interazione con le ammine presenti nel poliolo formulato, necessarie alla reazione di formazione del legame uretanico, ne hanno inibito l’attività.
Resumo:
La scarsità di informazioni sulle reazioni che intervengono nel processo di stiratura semipermanente dei capelli e la necessità di trovare prodotti alternativi all’uso della formaldeide ha portato a intraprendere questo lavoro di tesi. Esso si è svolto seguendo due linee principali: l’indagine sui possibili meccanismi di reazione che intervengono fra composti aventi gruppi aldeidici, quali formaldeide o acido gliossilico (particolarmente efficaci nel processo di stiratura), e alcuni amminoacidi presenti nei capelli da un lato, e uno studio sulle modificazioni che intervengono nella fibra attraverso spettroscopia Raman e ATR-FT-IR e microscopia elettronica a scansione (SEM) dall’altro. Partendo dall’ipotesi più plausibile di una addizione sull’atomo di carbonio carbonilico da parte di nucleofili presenti su alcuni residui amminoacidici della catena polipeptidica, sono stati presi in considerazioni tre gruppi funzionali presenti sugli amminoacidi che possono dar luogo ad addizione reversibile al carbonio carbonilico: il gruppo tiolico che comportandosi come nucleofilo allo zolfo potrebbe dare formazione di semitioacetali, il gruppo ossidrilico di amminoacidi come serina e treonina che potrebbe dare semiacetali, ed il gruppo amminico di amminoacidi basici che agendo da nucleofilo all’azoto potrebbe generare immine. Dopo aver indagato sulla reazione fra aldeide formica (o acido gliossilico) con cisteina e derivati, l’indagine è proseguita utilizzando come amminoacido basico modello N-acetil-L-lisina, dove il gruppo amminico in posizione alfa al carbossile è protetto per cercare di mimare la situazione nel polipeptide. Alcune prove sono state condotte facendo reagire questo substrato sia con una serie di aldeidi aromatiche in diverse condizioni sperimentali che con acido gliossilico. In seguito sono state svolte analisi mediante spettroscopia Raman e ATR-FT-IR su ciocche di pelo di yak nelle diverse fasi del trattamento più comunemente utilizzato nella stiratura semipermanente. Questo ha permesso di ottenere indicazioni sia sulle modificazioni della struttura secondaria subite dalla fibra che sul verificarsi di reazioni fra agente lisciante e residui amminoacidici presenti su di essa. Infine è stata svolta un’indagine SEM sia su fibre di yak che su capelli umani ricci per osservare le variazioni superficiali nei diversi stadi del trattamento.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.
Resumo:
Questo testo si pone come obbiettivo l'analisi di fattibilità tecnica e l'introduzione all'implementazione di sistemi che permettano il riutilizzo di codice sorgente di applicazioni con necessità simili su dispositivi Smartphone. In particolare su sistemi Google Android. Questo è il concetto di personalizzazione di applicazioni, in pratica la costruzione di sistemi che permettano di generare applicazioni mobile attraverso interfacce user-friendly e mediante l'uso di codice modulare. L'obbiettivo è fornire una visione globale delle soluzioni e delle problematiche di questo campo, poste come linee guida per chi intendesse studiare questo contesto o dovesse sviluppare un progetto, anche complesso, inerente alla personalizzazione di applicazioni. Sarà implementato come esempio, un web service per la personalizzazione di applicazioni Android, in particolare webview, soffermandosi in particolare sulle problematiche legate alla paternità del software e delle firme digitali necessarie per la pubblicazione sul market Android. Saranno definite alcune scelte da prendere se si sviluppano applicazioni per terzi che in seguito saranno rilasciate sul market. Nella ultima parte sarà analizzata una strategia di customizzazione attraverso alcune buone pratiche, che permette attraverso l'uso di progetti libreria e direttamente nell'ambiente di sviluppo, di realizzare codice modulare e pronto per il market Android in diverse versioni.
Resumo:
Questa tesi tratta di scambio di dati aperti (open data exchange). In particolare, tratta di intervalli temporali con annesse informazioni di vario tipo. Le attività commerciali, come aziende, bar, ristoranti, cinema, teatri, e via dicendo, hanno bisogno di un modo comune per poter condividere i dati inerenti ai propri orari (timetable). Lo scopo di questa tesi è quello di mostrare un modello efficiente, compatto e completo per poter condividere tali informazioni con l'ausilio di formati standard (XML). Oggi giorno esistono diverse soluzioni atte a far fronte a questa necessità ma si tratta di soluzioni incomplete e che gestiscono tali informazioni separatamente. Il problema sorto è quello di avere un'unica struttura che posso unificare informazioni di diverso carattere con gli orari di un'attività: un cinema ha la necessità di fornire orari di diverse proiezioni svolte in sale diverse, una tournée dovrà poter specificare le coordinate geografiche del prossimo evento e così discorrendo.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
L’idea iniziale di questo lavoro era di tentare un approccio ad una tematica che, per la cronologia scelta, era stata decisamente poco studiata. Il Quattrocento e gli arcivescovi di Ravenna sembravano formare una diade promettente per i risultati che avrebbe potuto dare in termini di riscoperta dell’antico in ambito urbano, di rinascita umanistica e dei valori culturali che, nel particolare deposito memoriale ravennate, avrebbe potuto configurarsi in maniera particolarmente interessante dati i caratteri di unicità che la città – già imperiale, regia ed esarcale – porta inscritti nella sua identità. Le fonti primarie, rivolte all’analisi della politica degli arcivescovi ravennati per la conservazione e l’innovazione della facies urbana cittadina e ricercate anche all’interno del quadro istituzionale/amministrativo e culturale veneziano e della Ferrara estense, dalla cui società e cultura provengono i più importanti arcivescovi ravennati del periodo, hanno restituito il riflesso di una identità cittadina e urbica indebolita. Una difficoltà oggettiva è venuta da un carattere costante delle consuetudini clericali del tempo, la non residenza del presule nella sua chiesa locale, cui neppure il vescovo ravennate ha fatto eccezione. L’ipotesi di partenza finisce dunque per essere sfumata: le dinamiche della gestione e conservazione del patrimonio monumentale e artistico della città non appaiono più in mano all’arcivescovo, ma ad una pluralità di amministratori ed utilizzatori anche del frammentato mondo ecclesiale cittadino. Vengono peraltro messe in luce le attitudini e la sensibilità tutta umanistica di taluni vescovi – Bartolomeo Roverella in particolare -, qualità che non paiono estendersi fuori dalla vita personale dei presuli e meno ancora fino alla città della loro diocesi, ma che indagate in maniera organica e legate alle testimonianze materiali fino ad oggi disperse e per la prima volta riunite nel presente lavoro, apportano nuova luce e aprono la strada a ulteriori lavori di approfondimento.