911 resultados para Teoria del funcional de densitat


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato affronta la definizione di differenti strategie per il campionamento e la ricostruzione di segnali wavefield per applicazioni di monitoraggio strutturale. In accordo con quanto indicato dalla teoria del Compressive Sensing, obiettivo della tesi è la minimizzazione del numero di punti di acquisizione al fine di ridurre lo sforzo energetico del campionamento. I risultati sono validati in ambiente Matlab utilizzando come riferimento segnali acquisiti su setup sperimentali in alluminio o materiale composito in presenza di diverse tipologie di difetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi della risposta delle pavimentazioni flessibili alle sollecitazioni veicolari ed alle variazioni di temperatura non può prescindere dallo studio del legante bituminoso: è all’interno del film di bitume, infatti, che avviene la rottura per fatica alle basse temperature (alte frequenze di carico) e che si sviluppano le deformazioni con conseguente fenomeno dell’ormaiamento alle alte temperature di esercizio (basse frequenze di carico). Il deterioramento di queste pavimentazioni, dovuto a fenomeni di fessurazione da fatica o di ormaiamento, infatti, è divenuto nel settore infrastrutturale oggetto di studio ed approfondimento. Spesso tali ammaloramenti sono accelerati dall’azione dell’acqua che, in assenza di strati impermeabili, raggiunge gli strati inferiori della sovrastruttura indebolendo le proprietà coesive del legante e di adesione tra bitume ed aggregati. Se a queste problematiche si aggiunge l’impatto ambientale di un’infrastruttura viaria (emissione di fumi durante la stesa del conglomerato), risulta evidente l’interesse nel campo della ricerca circa lo studio di leganti bituminosi modificati e additivati, in grado di aumentare le prestazioni del pacchetto stradale, oltre che a ridurne gli effetti negativi sull’ambiente. Per queste motivazioni, la presente Tesi si concentra sullo studio dei leganti e dei mastici bituminosi ottenuti con l’aggiunta di “Powdered Rubber Modifier (PRM)” ovvero di “Polverino di Gomma” ottenuto mediante il riciclaggio di pneumatici usati, attraverso opportune lavorazioni di natura meccanica. In campo stradale sta assumendo sempre più importanza l’utilizzo di pneumatici riciclati, in grado di aumentare le prestazioni del pacchetto stradale e di ridurne gli effetti negativi sull’ambiente. Per studiare e testare questi leganti e mastici bituminosi si è scelto di utilizzare un approccio tradizionale, consistente nella simulazione della risposta meccanica macroscopica mediante modelli costitutivi basati sulla teoria del mezzo continuo: ciò significa che la miscela viene sottoposta a prove di tipo statico e dinamico in un ampio intervallo di condizioni inerenti all’intensità della forza, alla velocità di applicazione del carico ed alla temperatura. In particolare, i materiali sopra citati sono stati testati mediante Dynamic Shear Rheometer (DSR-UNI EN 14770); tale apparecchiatura è in grado, attraverso l’applicazione di una sollecitazione dinamica con andamento sinusoidale, di simulare le reali condizioni di carico cui è sottoposta una pavimentazione stradale durante la sua vita utile. I risultati reologici ottenuti sono stati confrontati per valutare il contributo prestazionale di ciascun materiale componente le miscele.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è stato quello di investigare il consumo di acqua sostenibile in un’organizzazione complessa come è l’Università di Bologna, con particolare riferimento alla realtà della Scuola di Ingegneria ed Architettura di via Terracini. Successivamente viene analizzato l’approccio della transizione, che comprende modalità e strumenti con cui si realizza il cambiamento all’interno della struttura sociale. Tra questi emerge il modello di cambiamento proposto dalla teoria di Transition Management, che sottolinea il ruolo fondamentale svolto dagli esperimenti di transizione nella realizzazione del cambiamento.Viene perciò proposta la teoria del Project management come vero e proprio strumento con il quale analizzare il progetto "Casa dell'acqua".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro saranno inizialmente discusse le tecniche medianti le quali sono cresciuti i monocristalli organici confrontando le tecniche di crescita proprie dell’elettronica organica con quelle utilizzate comunemente in quella inorganica. Successivamente si introdurrà il problema del trasporto elettronico con particolare riguardo verso alcune molecole come il rubrene o il pentacene. Tramite il modello microscopico verranno studiate le interazioni elettrone-fonone, locale e non locale, in particolare nei cristalli di rubrene e DMQtT–F4TCNQ attraverso la teoria del piccolo polarone di Holstein. Dopo aver sottolineato i limiti di questa teoria ne verrà proposta una alternativa basata sui lavori di Troisi e supportata da evidenze sperimentali. Tra le tecniche utilizzate per l’analisi dei campioni verranno discusse le basi della teoria del funzionale di densità. L’attenzione sarà rivolta ai cristalli ordinati mentre una breve descrizione sarà riservata per quelli disordinati o amorfi. Nel capitolo 3 verrà trattato il ruolo degli eccitoni all’interno dei semiconduttori organici, mentre nell’ultimo capitolo si discuterà di diverse applicazioni dei semiconduttori organici come la costruzione di FET e di detector per raggi X. Infine verranno mostrati il setup sperimentale e il procedimento per l’estrazione di parametri di bulk in un semiconduttore organico tramite analisi SCLC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato è stato approfondito e sviluppato presso lo stabilimento della Blackshape Aircraft S.p.A. sito in Monopoli (Bari). L’obiettivo è stato principalmente orientato sull’individuazione di un metodo di progettazione di giunzioni incollate fra laminati in CFRP basato su di un modello matematico in grado di prevederne la resistenza. Per realizzare tale studio sono stati necessari approfondimenti preliminari relativi al comportamento meccanico dei laminati in materiale composito e agli studi condotti da Hart-Smith sulla teoria degli incollaggi. E’ stato determinato un metodo analitico per il calcolo della lunghezza di sovrapposizione degli aderenti. Il criterio di resistenza del giunto individuato, basato sulla teoria del cedimento multiassiale di Von Mises, è stato approvato dalla Agenzia Europea per la Sicurezza Aerea, EASA. A livello numerico-pratico è stato preso in esempio il giunto fra i gusci di fusoliera relativi al nuovo velivolo Blackshape con certificazione VLA (Very Light Aircraft).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato si presentano alcuni risultati relativi alle equazioni differenziali stocastiche (SDE) lineari. La soluzione di un'equazione differenziale stocastica lineare è un processo stocastico con distribuzione multinormale in generale degenere. Al contrario, nel caso in cui la matrice di covarianza è definita positiva, la soluzione ha densità gaussiana Γ. La Γ è inoltre la soluzione fondamentale dell'operatore di Kolmogorov associato alla SDE. Nel primo capitolo vengono presentate alcune condizioni necessarie e sufficienti che assicurano che la matrice di covarianza sia definita positiva nel caso, più semplice, in cui i coefficienti della SDE sono costanti, e nel caso in cui questi sono dipendenti dal tempo. A questo scopo gioca un ruolo fondamentale la teoria del controllo. In particolare la condizione di Kalman fornisce un criterio operativo per controllare se la matrice di covarianza è definita positiva. Nel secondo capitolo viene presentata una dimostrazione diretta della disuguaglianza di Harnack utilizzando una stima del gradiente dovuta a Li e Yau. Le disuguaglianze di Harnack sono strumenti fondamentali nella teoria delle equazioni differenziali a derivate parziali. Nel terzo capitolo viene proposto un esempio di applicazione della disuguaglianza di Harnack in finanza. In particolare si osserva che la disuguaglianza di Harnack fornisce un limite superiore a priori del valore futuro di un portafoglio autofinanziante in funzione del capitale iniziale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partendo dal concetto di 'regionalismo' oppure d' identità regionale nell'interpretazione che ne ha dato Fernand Braudel ci rendiamo conto che il modo di guardare Venezia e l'arte veneziana con una certa ottica si forma a partire del romanticismo. Sono autori quali John Ruskin e Hippolyte Taine che sulla base della teoria del 'milieu' hanno dato inizio a un metodo della storia dell'arte ottocentesca che identifica il carattere del luogo e della sua gente con l'arte che vi viene prodotta. Il concetto teorico che sta alla base di questo modo di interpretare la pittura, deriva però dal Vasari e si riferiva all'opposizione artistica tra Venezia e Firenze, e al loro antagonismo che secondo Vasari vedeva vincitore il disegno. Dopo Vasari questo concetto viene ripreso da altri teorici italiani, ma all'inizio del Settecento il dibattito si sposta in Francia dove de Piles sulla scia del 'debat des anciens et modernes' dando la palma a Rubens invece di Poussin, prende la parte del colore. Grazie alla diffusione del nuovo gusto per il colore che si diffonde dalla Francia per tutta l'Europa, l'arte veneziana acquista una grandissima riputazione dalla quale approfittano soprattutto i pittori moderni veneziani attivi all'estero, durante il Settecento. Davanti questo sfondo viene sottolineata l'importanza di Venezia per il giovane Mengs che deve il suo primo successo al 'ritratto a pastelli', seguendo il gusto del sovrano sassone Augusto III. A causa dell'incarico per il quadro della chiesa cattolica di Dresda il pittore si porta a Venezia dove studia l'Assunta di Tiziano che si rispecchia nel quadro per Dresda. Dall'incontro con l'arte di Tiziano nasce un intenso dialogo teorico con la sua pittura di modo che Tiziano viene incluso da Mengs nella 'trias' dei tre primi pittori della storia della pittura per la perfezione del suo colore. Tale rivalutazione di Tiziano, pubblicata nei suoi scritti, porta alla revisione generale dei pregiudizi accademici verso la scuola veneziana sul livello teorico e pratico. A Venezia è Andrea Memmo, basandosi sui scritti di Mengs, a dare con la sua 'Orazione' davanti l'Accademia nel 1787 una nuova visione quando abbandona la tradizionale gerarchia 'disegno, colore e chiaroscuro' e con essa anche la tradizionale classifica delle scuole. Angelika Kauffmann che ritrae Memmo durante il suo soggiorno veneziano rappresenta forse il tipo di pittura che Memmo intese come ideale ed è una pittura che riunisce le qualità dei grandi maestri del passato facendolo confluire in un gusto universale. Spetterà poi al Lanzi di introdurre l'idea di una nuova pittura di carattere nazionale che si verifica durante l'Ottocento con i 'Macchiaioli' che danno la prevalenza al colore e non al disegno.