1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
L'utilizzo del marketing non convenzionale, o unconventional marketing in inglese, è stato utilizzato in tante campagne pubblicitarie, che vanno dall'azienda sportiva della Nike, alle agenzie legate agli aiuti umanitari come l'UNICEF. Ma questo nuovo modo di sponsorizzare i prodotti è arrivato anche nel mondo dell'audiovisivo. Prima nel cinema, con The Blair Witch Project, e successivamente nella televisione. Ma ora, con il mondo che si sta sempre più digitalizzando, e con l'arrivo delle piattaforme streaming, questa tecnica basata sull'avvicinamento dello spettatore al prodotto multimediale nella maniera più creativa possibile è diventata la chiave per vincere l'attenzione del pubblico. Questa tesi raccoglie i maggiori esempi di campagne pubblicitarie di prodotti seriali originali appartenenti a tre delle maggiori piattaforme streaming (Netflix, Disney+ e Amazon Prime Video) che hanno utilizzato l'Unconventional Marketing nelle sue varie forme e sfaccettature, per arrivare a risvegliare la curiosità del maggior numero di persone possibili e consolidare la fedeltà degli spettatori già nel mezzo di questo percorso seriale.
Resumo:
Background: l’intervento di artroprotesi inversa di spalla sta assumendo sempre più importanza all’interno dell’approccio chirurgico della spalla. Il Concetto Bobath viene somministrato solitamente a pazienti con problematiche neurologiche centrali (es. ictus), ma si è visto molto efficace nel ristabilire un’importante stabilità scapolare a livello dell’arto superiore. Obiettivo: valutare il dolore e la funzionalità di spalla in persone con protesi inversa di spalla in seguito ad un percorso riabilitativo implementato da tecniche appartenenti al Concetto Bobath. Metodi: sono stati selezionati tre soggetti (3 F) di et. media di 74 anni sottoposti ad intervento di artroprotesi inversa di spalla e successivamente a trattamento riabilitativo con tecniche appartenenti al Concetto Bobath. I soggetti partecipanti sono stati valutati durante e alla fine del percorso riabilitativo attraverso l’utilizzo della scala NRS per il dolore, mentre per la funzionalità di spalla la UCLA Shoulder Scale), la Constant-Murley Scale e la DASH. I limiti presenti in questo studio sono attribuibili sia al fatto che nelle banche dati sono assenti studi che riguardano lo stesso argomento, sia al fatto che il numero di pazienti entrati a far parte dello studio è molto limitato sia per le complicanze durante il trattamento o l’interruzione del trattamento in alcuni pazienti. Risultati: al termine della sperimentazione, tutti i soggetti hanno presentato un miglioramento delle misure di outcome. Un importante miglioramento si è notato nella stabilità scapolare, nei compensi muscolari e nel dolore. I risultati sono stati poi confrontati con gli outcome di pazienti trattati secondo protocolli standardizzati, appartenenti a studi presenti all’interno delle banche dati. Conclusioni: l’utilizzo di tecniche appartenenti al Concetto Bobath sembra essere efficace in pazienti sottoposti ad artroprotesi inversa di spalla. Tuttavia, sono necessari ulteriori studi per verificarne gli effettivi effetti.
Resumo:
La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.
Resumo:
La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.
Resumo:
L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.
Resumo:
Prevedere quanto e quando un cliente richiederà un determinato prodotto è da sempre una delle sfide più complicate che un’azienda deve affrontare. Una delle metodologie più utilizzate è il processo di Sales and Operations, costituito da 5 fasi. L’obiettivo di questo elaborato è illustrare la creazione del processo applicata a una famiglia di prodotti che andrà a sostituire molteplici altri codici prodotti dell’azienda Sherwin-Williams. Per la creazione si è interagito con varie funzioni della multinazionale, tra cui l’ufficio di supply chain, l’ufficio vendite e i vari uffici produzione degli stabilimenti europei. La creazione del processo si articola nelle 5 fasi classiche quindi: raccolta dati sulla domanda futura in cui sono stati individuati i consumi interni e le vendite ai clienti terzi dei prodotti; la creazione del piano di domanda e del piano di produzione iniziale, approvazione produzione delle quantità concordate e definizione delle politiche di gestione sia delle strutture clienti che dello stabilimento produttivo, infine, la fase di miglioramento e monitoraggio del processo. Nell’ultima fase tra le migliorie al processo si ridurrà il numero di codici univoci da gestire del 34%, verrà individuata la zona ottimale per l’ubicazione di un magazzino distributivo e si analizzerà l’aderenza alla schedulazione presso il reparto liquidi dello stabilimento con l’obiettivo di ridurre il Lead Time di produzione.
Resumo:
In questo lavoro si studierà un nuovo sistema di consegna merci, denominato crowd-shipping. Questo si propone come soluzione per il trasporto della merce a domicilio, soprattutto per quanto riguarda l’ultimo miglio, con la quale si intendono le consegne che vengono effettuate all’interno dei centri urbani. È una soluzione recente che prevede di appoggiare ai corrieri tradizionali delle persone comuni, definiti corrieri occasionali (OD, Occasional Drivers). Questi ultimi, percorrendo un tratto di strada per motivi personali, sono disposti a consegnare la merce ai destinatari finali effettuando delle deviazioni al loro tragitto originario, in cambio di un compenso. Dopo aver studiato la situazione attuale dell’E-commerce e dello sviluppo delle Sharing Economy, dopo aver appreso il funzionamento di questo nuovo tipo di soluzione logistica, verrà presentato un modello matematico di programmazione lineare per le consegne last mile della merce in crowd-shipping. Questo modello verrà testato nel contesto urbano di Bologna e prevedrà due livelli di consegna rappresentati in primis dai corrieri tradizionali e in secondo luogo dai corrieri occasionali. Modalità possibile grazie all’utilizzo di armadietti automatici come depositi intermedi; si avranno, infatti, dei corrieri classici che riforniscono gli armadietti e dei corrieri occasionali che prelevano la merce dagli armadietti e la consegnano ai destinatari finali. Il modello sarà implementato in scenari diversi, con un differente numero di attori coinvolti, diverse ricompense per gli OD e diverse tipologie di veicoli, più o meno inquinanti. Questo ultimo punto ci anticipa che questa modalità di consegne può portare benefici importanti anche a livello ambientale; e in un mondo dove i cambiamenti atmosferici dovuti all’inquinamento sono sempre più devastanti, il crowd-shipping può portare a benefici concreti. Benefici che si sono dimostrati anche economici, sia per le aziende di spedizioni, sia per i clienti finali.
Resumo:
La tesi è basata sul dimensionamento e l’analisi degli articoli che possono andare all’interno di un nuovo magazzino. Il progetto nasce dalla necessità di espandere il centro di stoccaggio attuale. Verranno costruiti un magazzino Autostore, una struttura più compatta ed efficiente nello stoccaggio della merce, ed un nuovo magazzino pallet servito da traslo elevatori. Dato che i materiali all’interno dell’Autostore devono essere stoccati all’interno di cassette più piccole rispetto ad un pallet, è stato necessario stimare il numero di articoli idonei a questo tipo di stoccaggio sia dal punto di vista del peso che dal punto di vista volumetrico, dato che di solo un 30% dei codici si è a conoscenza delle dimensioni. L’analisi si è sviluppata tramite stime in base a quanti codici siano presenti all’interno dei pallet e la loro quantità al suo interno. Da questa stima si sono ricavate tre categorie, verde, arancione e rossa che identificano se i materiali risultano idonei oppure no. I primi sono quelli che possono andare all’interno dell’Autostore, i secondi risultano essere border line, mentre i terzi non possono andare all’interno sicuramente. Degli articoli in esame sono state estratte anche le giacenze medie nei 3 anni passati, in modo tale da dimensionare adeguatamente i magazzini, le entrate merci, così da vedere quante baie di carico sono necessarie e le varie tipologie di movimento legate ai prelievi e le tempistiche di prelievo per ogni baia di scarico, in modo tale da valutare le minime prestazioni che il nuovo magazzino deve soddisfare. Sono stati calcolati anche dei flussi di materiale, uscente ed entrante dall’azienda, in modo tale da individuare la posizione ottimale del nuovo centro di stoccaggio. Infine sono state dimensionate e costificate le due soluzioni: quella Autostore che può ospitare tutti gli articoli della categoria verde, di cui sono stati sviluppati due scenari, mentre quella del magazzino automatico pallet che contiene le altre due categorie.
Resumo:
Il mondo delle macchine automatiche è in costante evoluzione, ed è in questo contesto che si colloca l’attività di analisi e progettazione oggetto di questo studio. Tutto questo è stato svolto presso l’azienda G.D S.p.A. All’interno dell’Ufficio Tecnico dell’azienda, in collaborazione con l’Ufficio Calcolo, è stata analizzata la resistenza dei componenti, il comportamento deformativo e lo stato tensionale di una testa di taglio principalmente per filtri e cannucce, con lo scopo di sviluppare una nuova soluzione a velocità incrementata, già presente in diverse macchine automatiche e che verrà implementata in molte altre ancora in fase di produzione e progettazione. A tale scopo vengono effettuate diverse verifiche sui componenti, confrontando continuamente i risultati con la situazione attuale di funzionamento e con innovative simulazioni dinamiche e FEM, sull’intero assieme, con lo scopo di prendere in considerazione il maggior numero di contributi alle sollecitazioni, alle deformazioni ed alle vibrazioni possibili, che potrebbero causare criticità o malfunzionamenti del sistema, modellando nel modo più realistico possibile il funzionamento e la movimentazione del meccanismo. L’attuale produttività massima della macchina si attesta su 5000 pz/min con una velocità di rotazione della testa di taglio di 2500 rpm. L’analisi e il miglioramento del sistema ha l’obiettivo di aumentare la velocità di produzione, e quindi di rotazione, a 6000 pz/min e 3000 rpm. Viene infine analizzata la nuova soluzione, verificando anche con prove di funzionamento la validità delle simulazioni e della riprogettazione effettuati. Sono stati studiati e presi in considerazione tutti gli aspetti fondamentali della testa di taglio, nel suo assieme e di ogni suo componente, con lo scopo di migliorarne le prestazioni e la produttività garantendo la sicurezza del meccanismo e al tempo stesso un funzionamento ottimale con la creazione di un prodotto di ottima qualità.
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.
Resumo:
In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.
Resumo:
Il miele è un prodotto alimentare da sempre conosciuto e, in virtù delle note proprietà salutistiche e degli innumerevoli utilizzi ai quali si presta è sempre più spesso oggetto di studi. Nello specifico, questo elaborato di tesi si focalizza sul miele di Manuka della Nuova Zelanda, un prodotto unico nel suo genere, ma ancora poco conosciuto in Italia. Questa unicità è essenzialmente attribuibile alla composizione chimica peculiare, per il quale è noto come “superfood”, vantando numerose attività interessanti legate a composti minori bioattivi tra cui: capacità antimicrobica, antibiotica, antiossidante, cicatrizzante. Queste proprietà lo hanno reso oggetto di un gran numero di brevetti e ciò ha contribuito ad aumentare “la corsa al miele di Manuka”, con aumento del prezzo sul mercato e, di conseguenza, gli immancabili fenomeni di frode e adulterazione. La messa a punto di metodologie analitico-strumentali affidabili basate sull’identificazione di traccianti di autenticità approvati dal Ministero delle Industrie Primarie della Nuova Zelanda può offrire maggiori garanzie in tal senso; si rendono comunque necessari ulteriori studi per determinare l’efficacia e la sicurezza del miele di Manuka, oltre che per identificare con precisione i meccanismi responsabili delle sue attività biologiche.
Resumo:
La ricerca di un'ottima qualità costruttiva è diventata, per ogni fornitore o produttore legato all’ambito automotive/motoristico, l’aspetto principale nella produzione di un veicolo, soprattutto nel caso specifico di un motore: per garantire, dunque, una buona qualità generale lungo tutta la gamma di produzione, è necessario avere una buona “ripetibilità” di costruzione, ossia, è fondamentale poter assemblare un alto numero di motori che siano il più possibile identici tra loro; considerando tutte le variabili che intervengono lungo la catena di produzione, a partire dalla banale lavorazione meccanica delle parti, fino all’assemblaggio stesso del motore. E' facilmente intuibile, pertanto, come non sia così raro avere delle leggere imperfezioni tra motore e motore che possono poi andare ad impattare sulla vita e sulle performance stesse del mezzo. Questo discorso è ancora più valido se si parla dell’ambito racing, in cui la qualità costruttiva, e, quindi, le performance, giocano un ruolo fondamentale nella progettazione di un motore, nonostante il volume produttivo sia tutto sommato piccolo. L’obiettivo dell'elaborato è quello di creare un metodo di controllo e di confronto della qualità/precisione costruttiva, intesa sia come qualità di produzione delle parti che di assemblaggio del motore finito. A partire da una scansione laser tridimensionale, sotto forma di una nuvola di punti, si è creato un software di elaborazione dati che permettesse di arrivare a calcolare il rapporto di compressione reale del motore in analisi e la mappa di squish tramite la sovrapposizione virtuale delle due scansioni relative ai cilindri/pistoni del blocco motore e la testa del motore stesso.
Resumo:
La tesi è imperniata sulle modalità di rappresentazione letteraria del tempo e délia memoria (dunque sulla relazione fra tempo e narratività) nella produzione narrativa ad ampio respiro délia scrittrice Giovanna Zangrandi.¦Il canone delle opere prese in esame comprende, in particolar modo, i romanzi I Brusaz (1954) e Orsola nelle stagioni (1957), la narrazione a carattere autobiografico de II campo rosso (1959) e il diario resistenziale Igiorni Veri (1963).¦Il percorso di indagine si è awalso di strumenti teorici e analitici interdisciplinari: alla critica e alla prassi letteraria è stata affiancata una strumentazione di matrice storico-filosofica, sociologica e, in misura minore, psicanalitica.¦La tesi si articola in diverse sezioni. Nella prima parte del lavoro vengono esplorati alcuni nessi fondanti del lavoro: il rapporto fra storia e memoria, la relazione fra memoria individuale e memoria collettiva, la dialettica fra ricordo e oblio e quella fra memoria e narrazione, ossia ira contenuti mnestici individuali e loro configurazione letteraria; successivamente la tesi si focalizza sul nesso individuabile, soprattutto nelle opere più scopertamente autobiografiche di Giovanna Zangrandi, tra testo letterario e meccanismi individuali del ricordo, analizzando la dialettica tra pulsione autobiografica e sua rielaborazione tematica, tra piani memoriali soggettivi e loro traduzione narrativa.¦Nell'ultima parte del percorso critico la tesi si sofferma, in particolare, sulle complesse relazioni instaurate daU'autrice, nel diario I giorni veri, fra dimensioni storico-memoriali, piani autobiografïci e sistemi letterari. A taie fine, il punto di riferimento teorico fondamentale è costituito dalla prospettiva linguististica di Harald Weinrich, applicata alio studio dei tempi verbali, in base all'assunto secondo il quale il tempo verbale non esprime necessariamente una dimensione cronologica, quanto piuttosto una condizione psicologica délia soggettività narrante.¦Soffermandosi su un aspetto flnora inesplorato nell'ambito délia produzione narrativa di Giovanna Zangrandi, il lavoro evidenzia come la dialettica memoria/oblio e la corrispondente dicotomia tra passato e présente tendano a trasformarsi nella direttrice tematica fondamentale - nonchè in uno dei tratti più interessanti e significativi - dell'opera zangrandiana.
Resumo:
La tesi di Dottorato, condotta in accordo di colutela tra l'Università di Roma Tor Vergata e l'UNIL di Losanna, ha affrontato l'analisi di un gruppo di undici disegni custodia presso la National Gallery of Scotland di Edimburgo, copie di alcuni dei più significativi mosaici medioevali delle chiese di Roma, ricostruendone la genesi, quindi le vicende legate alla committenza, e il percorso collezionistico. I disegni scozzesi, oggetto di un importante articolo di Julian Gardner pubblicato sul Burlington Magatine nel 1973, furono commissionati intorno agli anni Settanta del XVII secolo dall'antiquario romano Giovanni Giustino Ciampini (1633-1698) in connessione alla stesura della sua opera di erudizione più avvertita e famosa: i Vetera Mommenta in' quibus praecipue Musiva Opera, sacrarum, profanan,mque, Aedìum structura, ac nonnulli antiqui ritus dissertationibus iconìbusque illustrantur. La composizione dei Vetera Mommenta - un'opera riccamente illustrata che nasce per rispondere alle esigenze della ideologia della Chiesa di Roma in un momento di rinnovata crisi del sistema - impone a Ciampini di porsi da un lato nella prospettiva della più alta tradizione antiquaria cinque e seicentesca, di cui recupera i metodi di lettura e di analisi applicati allo studio delle monete e dei monumenti antichi interpretati quali prove per la ricostruzione storica, e dall'altra, come è emerso dalle mie ricerche, lo pone immediatamente in contatto con gli avamposti del più moderno metodo di indagine storica e filologica applicato alle fonti e ai documenti della storia ecclesiastica, inaugurato dall'ambiente bollandista e inaurino. I monumenti paleocristiani e medioevali assumono in quest'ottica lo status di 'fatti incontestabili', le fonti primarie attraverso le quali Ciampini ricuce le tappe salienti della storia della Chiesa, da Costantino fino al XV secolo. Nel 1700 le copie di Edimburgo arrivano nelle mani del mercante e connoisseur milanese il padre oratoriano Sebastiano Resta (1635-1714), di stanza a Roma presso la Chiesa Nuova della Vallicella dal 1660, che decide di rilegarle tutte insieme in un volume da donare al suo maggiore acquirente e patrono, il vescovo di Arezzo Giovanni Matteo Marchetti. Come spiega Resta in alcune sue lettere, il presente avrebbe dovuto costituire insieme una curiosità ed offrire un confronto: infatti «le copie delli mosaici di Roma che erano di Monsignor Ciampini» - afferma Resta - avrebbero mostrato al Marchetti «le maniere di que' tempi gottici, barbari e divoti de cristiani e [fatto] spiccare i secoli seguenti». Questa indagine infatti ha fatto riemergere aspetti della precoce attenzione di Sebastiano Resta per l'arte dei "secoli bassi", mai debitamente affrontata dagli studi. E' infatti sulla scorta di una profonda conoscenza dei testi della letteratura artistica, e in connessione alla esplosione vivacissima della controversia Malvasia/Baldinucci sul primato del risorgere delle arti in Toscana, che Sebastiano a partire dagli anni Ottanta del Seicento comincia a meditare sul Medioevo artistico con il fine di spiegare l'evoluzione del linguaggio tecnico e formale che ha condotto alla perfezione dell'atte moderna. In questa prospettiva ι disegni del XIV e XV secolo che egli riuscì ad intercettare sul mercato valgono quali testimonianze delle maniere degli artefici più antichi e sono imbastiti nei molteplici album che Resta compone nel rispetto della successione cronologica dei presunti autori, e ordinati in base alle scuole pittoriche di pertinenza. La tesi permette perciò di descrivere nelle loro diverse specificità: da un lato il modo dei conoscitori come Resta, interessati nell'opera al dato stilistico, con immediate e sensibili ricadute sul mercato, e disposti anche con passione a ricercare i documenti relativi all'opera in quanto pressati dall'urgenza di collocarla nella sequenza cronologica dello sviluppo del linguaggio formale e tecnico; dall'altro gli antiquari come Ciampini e come Bianchini, per i quali le opere del passato valgono come prove irrefutabili della ricostruzione storica, e divengono quindi esse stesse, anche nel loro statuto di copia, documento della stona. Sono due approcci che si manifestano nel Seicento, e talvolta in una medesima persona, come mostra il caso anche per questo cruciale di Giovati Pietro Bellori, ma che hanno radici cinquecentesche, di cui i protagonisti di queste vicende sono ben consapevoli: e se dietro Resta c'è palesemente Vasari, dietro Ciampini e soprattutto Bianchini c'è la più alta tradizione antiquaria del XVI secolo, da Antonio Augustin a Fulvio Orsini.