987 resultados para smartphone analisi mercato evoluzione competitor
Resumo:
Negli ultimi anni, complice la rapida evoluzione degli elaboratori e dei sensori, spinta dal mercato smartphone, una tecnologia si sta sviluppando e si sta diffondendo rapidamente. Si tratta di quella relativa agli unmanned vehicles (UV), i veicoli senza pilota, spesso nel linguaggio comune chiamati “droni”. Questi particolari veicoli sono dotati della tecnologia adatta per svolgere in relativa autonomia particolari mansioni, senza la necessità della presenza di un pilota a bordo. In questa Tesi magistrale si descrivono brevemente le diverse categorie di UV e l’attuale livello di autonomia raggiunta nello svolgimento di alcune funzioni, grazie a tecnologie quali i linguaggi ad agenti, di cui si presentano anche alcune significative applicazioni allo stato dell’arte. Per rendere più efficaci eventuali nuove funzionalità, fornendo una metodologia di sviluppo, atta ad aumentare il grado di astrazione, viene proposto un approccio architetturale a tre livelli. In particolare, viene approfondito il secondo livello, presentando l’implementazione di una funzionalità, l’autolocalizzazione spaziale, utile ad un sistema di terzo livello per arricchire la propria conoscenza dell’ambiente, al fine di raggiungere la massima autonomia nel controllo del mezzo. Questa prima esperienza ha consentito di approfondire le necessità in termini di hardware e software, al fine di poter effettuare una scelta mirata per l’ottimizzazione dei risultati ed un eventuale porting on-board, nella prospettiva di svincolare il mezzo da eventuali collegamenti con una stazione di terra, fino ad ora necessaria per eseguire le attività più complesse. Un interessante caso di studio consente di verificare la bontà del modello proposto e i risultati raggiunti nell’autolocalizzazione. In conclusione, si propongono ulteriori sviluppi che potranno fornire gli strumenti necessari alla massima espressione del potenziale che gli UV possiedono.
Resumo:
Una stampa libera e plurale è un elemento fondante di ogni sistema democratico ed è fondamentale per la creazione di un’opinione pubblica informata e in grado di esercitare controllo e pressione sulle classi dirigenti. Dal momento della loro creazione i giornali si sono imposti come un’importantissima fonte di informazione per l’opinione pubblica. La seconda metà del Novecento, inoltre, ha conosciuto innovazioni tecnologiche che hanno portato grandi cambiamenti nel ruolo della carta stampata come veicolo di trasmissione delle notizie. Partendo dalla diffusione della televisione fino ad arrivare alla rivoluzione digitale degli anni ’90 e 2000, la velocità di creazione e di trasmissione delle informazioni è aumentata esponenzialmente, i costi di produzione e di acquisizione delle notizie sono crollati e una quantità enorme di dati, che possono fornire moltissime informazioni relative alle idee e ai contenuti proposti dai diversi autori nel corso del tempo, è ora a disposizione di lettori e ricercatori. Tuttavia, anche se grazie alla rivoluzione digitale i costi materiali dei periodici si sono notevolmente ridotti, la produzione di notizie comporta altre spese e pertanto si inserisce in un contesto di mercato, sottoposto alle logiche della domanda e dell'offerta. In questo lavoro verrà analizzato il ruolo della domanda e della non perfetta razionalità dei lettori nel mercato delle notizie, partendo dall’assunto che la differenza di opinioni dei consumatori spinge le testate a regolare l’offerta di contenuti, per venire incontro alla domanda di mercato, per verificare l’applicabilità del modello utilizzato (Mullainhatan e Shleifer, 2005) al contesto italiano. A tale scopo si è analizzato il comportamento di alcuni quotidiani nazionali in occasione di due eventi che hanno profondamente interessato l'opinione pubblica italiana: il fenomeno dei flussi migratori provenienti dalla sponda sud del Mediterraneo nel mese di ottobre 2013 e l'epidemia di influenza H1N1 del 2009.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
Diese Masterarbeit entstand im Rahmen des Projekts Language Toolkit. Die Haupttätigkeit meines Praktikums lag in der Lokalisierung der Website von Remedia ins Deutsche. Zu lokalisieren waren die in Kap. 1 beschriebenen Seiten der Abteilung „Cosmoonda“ zu den von der gleichnamigen Forschungsgruppe des Unternehmens entwickelten bioenergetischen Geräten. Das zweite Kapitel umfasst eine Einführung in die Lokalisierung und bietet einen Überblick über ihre Geschichte. Am Ende des Kapitels wurden die Vorteile der elocalization behandelt und es wurde das neue Anforderungsprofil des Übersetzers beschrieben. Kap. 3 beinhaltet die Analyse der überwiegenden Sprachfunktionen sowie der Textsorten und -typen zum Zweck der bestmöglichen Übertragung der Kommunikationsabsicht des Auftraggebers. Zur Festlegung der optimalen Übersetzungsstrategie von Werbetexten tragen unterschiedliche Faktoren bei, wie z.B. die Säulen des Marketing-Mix, die im vierten Kapitel in Bezug auf die Standardisierung oder Lokalisierung von Werbebotschaften analysiert wurden. Im vorliegenden Zusammenhang spielt die Positionierung eine ausschlaggebende Rolle, weil bioenergetische Geräte einen unterschiedlichen Lebenszyklus in Ausgangs- und Zielmarkt erleben. Anhand von konkreten Beispielen wurde im fünften Kapitel gezeigt, wie die Sprachen der Unternehmen, die ähnliche Produkte und Dienstleistungen anbieten, sich auch aufgrund von kognitiven, temporellen und pragmatischen Faktoren unterscheiden. Kap. 6 enthält eine Beschreibung der praktischen Schritte des Lokalisierungsprozesses (Dokumentationsphase sowie Erstellung und Analyse von Korpora). Der vorletzte Teil bietet einen Überblick über die Komponenten sowie die Vor- und Nachteile der Nutzung von CMS. Im letzten Teil der Arbeit habe ich mich mit den translatorischen Problemen und ihren Lösungen (durch AT-Fehler verursachte evidente Translationsprobleme, Strategien zur Wiedergabe von Produktnamen, Äquivalenzen zwischen AT und ZT) auseinandergesetzt.
Resumo:
L’elaborato ha l’obiettivo di analizzare lo sviluppo di un nuovo prodotto destinato al mercato delle macchine utensili ad elevata produttività, dette macchine transfer. Verranno esaminate le varie fasi che consentono la definizione del nuovo prodotto e delle relative specifiche. La tesi è divisa in due parti principali: -Analisi di mercato e design strategico, la quale consiste nell’analisi dei concorrenti e del mercato al fine di comprendere quali funzioni deve avare la macchina per poter essere competitiva. -Progettazione e ingegnerizzazione di una macchina con le caratteristiche precedentemente individuate, con approfondimento sui gruppi più importanti della stessa.
Resumo:
Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.
Resumo:
This work focuses on Machine Translation (MT) and Speech-to-Speech Translation, two emerging technologies that allow users to automatically translate written and spoken texts. The first part of this work provides a theoretical framework for the evaluation of Google Translate and Microsoft Translator, which is at the core of this study. Chapter one focuses on Machine Translation, providing a definition of this technology and glimpses of its history. In this chapter we will also learn how MT works, who uses it, for what purpose, what its pros and cons are, and how machine translation quality can be defined and assessed. Chapter two deals with Speech-to-Speech Translation by focusing on its history, characteristics and operation, potential uses and limits deriving from the intrinsic difficulty of translating spoken language. After describing the future prospects for SST, the final part of this chapter focuses on the quality assessment of Speech-to-Speech Translation applications. The last part of this dissertation describes the evaluation test carried out on Google Translate and Microsoft Translator, two mobile translation apps also providing a Speech-to-Speech Translation service. Chapter three illustrates the objectives, the research questions, the participants, the methodology and the elaboration of the questionnaires used to collect data. The collected data and the results of the evaluation of the automatic speech recognition subsystem and the language translation subsystem are presented in chapter four and finally analysed and compared in chapter five, which provides a general description of the performance of the evaluated apps and possible explanations for each set of results. In the final part of this work suggestions are made for future research and reflections on the usability and usefulness of the evaluated translation apps are provided.
Resumo:
La diffusione di smartphone con GPS si è rilevata utile per lo studio di modelli di scelta del percorso da parte di utenti che si muovono in bicicletta. Nel 2012 è stata ideata la ‘European Cyclinq Challenge’ (ECC), che consiste in una “gara” europea tra città: vince quella nella quale i rispettivi abitanti registrano il maggior numero di chilometri effettuati in bicicletta. In questo modo è possibile conoscere in forma anonima i percorsi realmente seguiti dai partecipanti alla gara: nel caso in esame, sono state fornite le tracce GPS registrate a Bologna sotto forma di punti catalogati ogni 10-15 secondi, a cui sono associate informazioni di coordinate, codice identificativo e istante di registrazione. Una fase di map-matching associa tali punti alla rete stradale di Bologna, descritta nel caso in esame dalla rete di Open Street Maps (OSM). Un elemento che garantisce al meglio la comprensione relativa alle scelte dei ciclisti, è quello di confrontarle con l’alternativa più breve, per capire quanto un utente sia disposto a discostarsi da essa per privilegiare ad esempio la sicurezza personale, il fatto di evitare pendenze elevate o incroci pericolosi. A partire dai punti GPS, che rappresentano l’origine e la destinazione di ogni viaggio, è possibile individuare sulla rete il percorso più corto che li congiunge, eseguendo sulla stessa rete tramite l’algoritmo di Dijkstra, considerando come unico attributo di costo la lunghezza. È stato possibile, mediante questi dati, effettuare un confronto nei tre anni di studio, relativamente alla distribuzione statistica delle lunghezze dei viaggi percorsi dagli utenti, a quanto questi si discostino dal percorso più breve ed infine come varia la percentuale dei viaggi effettuati nelle diverse tipologie stradali. Un’ultima analisi evidenzia la possibile tendenza degli utenti che si spostano in bicicletta nella città di Bologna, a utilizzare percorsi caratterizzati dalla presenza di numerosi incroci semaforizzati.
Resumo:
L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.
Resumo:
Il tema di ricerca verterà sulla determinazione delle cause di dissesto in atto su un edificio nell’Appennino tosco-emiliano. Questo, per evitare il crollo del fabbricato situato precisamente a Le Tagliole (Provincia di Modena). Mediante il reperimento di materiale bibliografico e pareri di professionisti locali si è cercato di verificare la stabilità del fabbricato, con conseguenti proposte di opere per migliorare la sua stabilità.
Resumo:
Il concetto di agricoltura biologica in Europa esisteva già da prima che la Comunità Europea promulgasse un regolamento in materia. Già nel 1946, infatti, seguendo le teorie di Steiner e l’operato della Soil Association, si diffuse l’idea di come una gestione alternativa al convenzionale utilizzo intensivo dei terreni, potesse garantire una produzione sostenibile, salvaguardando ambiente, fertilità del suolo e biodiversità. A seguito di ciò, infatti, nacque il primo disciplinare privato tra produttori afferenti l’associazione inglese. Successivamente, altri disciplinari privati si diffusero in tutta Europa, che vedrà anche nascere IFOAM, una organizzazione tesa a garantire l’armonizzazione dei principi e degli obiettivi della disciplina biologica adottata dai diversi disciplinari privati nei diversi Stati. La CE intervenne promulgando dapprima il Reg CE 2092/91, a cui è seguito l’attuale Reg. UE 834/07, un importante caposaldo legislativo nel quale si estende l’applicazione a produzioni prima esclusi e si allineano in modo mirato gli obbiettivi e gli scopi originari. Più recentemente, la costante evoluzione dimensionale del settore, l’entrata in vigore di piani di sostenibilità e le criticità riscontrate per alcuni aspetti nell’attuale regolamento aprirono di fatto la strada ad un iter di revisione e di lavori istituzionali sfociati, il 30/05/18, nell’entrata in vigore del nuovo Reg. 848/18 in applicazione a partire da gennaio 2022. Il presente lavoro si prefigge di analizzare l’evoluzione della normativa relativa all’agricoltura biologica ponendo in risalto le ragioni che hanno portato alle recenti modifiche ed illustrando alcune delle novità più importanti introdotte dal REG UE 848/18, fra i quali le eccezioni al disciplinare biologico, la certificazione di gruppo, il principio di conformità in materia di importazioni e soprattutto l’allargamento del campo d’applicazione a nuovi prodotti non più strettamente connessi al settore alimentare
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
La tesi di Dottorato, condotta in accordo di colutela tra l'Università di Roma Tor Vergata e l'UNIL di Losanna, ha affrontato l'analisi di un gruppo di undici disegni custodia presso la National Gallery of Scotland di Edimburgo, copie di alcuni dei più significativi mosaici medioevali delle chiese di Roma, ricostruendone la genesi, quindi le vicende legate alla committenza, e il percorso collezionistico. I disegni scozzesi, oggetto di un importante articolo di Julian Gardner pubblicato sul Burlington Magatine nel 1973, furono commissionati intorno agli anni Settanta del XVII secolo dall'antiquario romano Giovanni Giustino Ciampini (1633-1698) in connessione alla stesura della sua opera di erudizione più avvertita e famosa: i Vetera Mommenta in' quibus praecipue Musiva Opera, sacrarum, profanan,mque, Aedìum structura, ac nonnulli antiqui ritus dissertationibus iconìbusque illustrantur. La composizione dei Vetera Mommenta - un'opera riccamente illustrata che nasce per rispondere alle esigenze della ideologia della Chiesa di Roma in un momento di rinnovata crisi del sistema - impone a Ciampini di porsi da un lato nella prospettiva della più alta tradizione antiquaria cinque e seicentesca, di cui recupera i metodi di lettura e di analisi applicati allo studio delle monete e dei monumenti antichi interpretati quali prove per la ricostruzione storica, e dall'altra, come è emerso dalle mie ricerche, lo pone immediatamente in contatto con gli avamposti del più moderno metodo di indagine storica e filologica applicato alle fonti e ai documenti della storia ecclesiastica, inaugurato dall'ambiente bollandista e inaurino. I monumenti paleocristiani e medioevali assumono in quest'ottica lo status di 'fatti incontestabili', le fonti primarie attraverso le quali Ciampini ricuce le tappe salienti della storia della Chiesa, da Costantino fino al XV secolo. Nel 1700 le copie di Edimburgo arrivano nelle mani del mercante e connoisseur milanese il padre oratoriano Sebastiano Resta (1635-1714), di stanza a Roma presso la Chiesa Nuova della Vallicella dal 1660, che decide di rilegarle tutte insieme in un volume da donare al suo maggiore acquirente e patrono, il vescovo di Arezzo Giovanni Matteo Marchetti. Come spiega Resta in alcune sue lettere, il presente avrebbe dovuto costituire insieme una curiosità ed offrire un confronto: infatti «le copie delli mosaici di Roma che erano di Monsignor Ciampini» - afferma Resta - avrebbero mostrato al Marchetti «le maniere di que' tempi gottici, barbari e divoti de cristiani e [fatto] spiccare i secoli seguenti». Questa indagine infatti ha fatto riemergere aspetti della precoce attenzione di Sebastiano Resta per l'arte dei "secoli bassi", mai debitamente affrontata dagli studi. E' infatti sulla scorta di una profonda conoscenza dei testi della letteratura artistica, e in connessione alla esplosione vivacissima della controversia Malvasia/Baldinucci sul primato del risorgere delle arti in Toscana, che Sebastiano a partire dagli anni Ottanta del Seicento comincia a meditare sul Medioevo artistico con il fine di spiegare l'evoluzione del linguaggio tecnico e formale che ha condotto alla perfezione dell'atte moderna. In questa prospettiva ι disegni del XIV e XV secolo che egli riuscì ad intercettare sul mercato valgono quali testimonianze delle maniere degli artefici più antichi e sono imbastiti nei molteplici album che Resta compone nel rispetto della successione cronologica dei presunti autori, e ordinati in base alle scuole pittoriche di pertinenza. La tesi permette perciò di descrivere nelle loro diverse specificità: da un lato il modo dei conoscitori come Resta, interessati nell'opera al dato stilistico, con immediate e sensibili ricadute sul mercato, e disposti anche con passione a ricercare i documenti relativi all'opera in quanto pressati dall'urgenza di collocarla nella sequenza cronologica dello sviluppo del linguaggio formale e tecnico; dall'altro gli antiquari come Ciampini e come Bianchini, per i quali le opere del passato valgono come prove irrefutabili della ricostruzione storica, e divengono quindi esse stesse, anche nel loro statuto di copia, documento della stona. Sono due approcci che si manifestano nel Seicento, e talvolta in una medesima persona, come mostra il caso anche per questo cruciale di Giovati Pietro Bellori, ma che hanno radici cinquecentesche, di cui i protagonisti di queste vicende sono ben consapevoli: e se dietro Resta c'è palesemente Vasari, dietro Ciampini e soprattutto Bianchini c'è la più alta tradizione antiquaria del XVI secolo, da Antonio Augustin a Fulvio Orsini.