901 resultados para Runge-Kutta, assoluta stabilità, sistemi stiff, modello di Aquino, simulazioni ad eventi discreti.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ravenna è una città che porta nel suo costruito le tracce di un vissuto antico e moderno. Questo rapporto, di simbiosi o di contrasto, è direttamente leggibile nelle architetture del centro storico e nel rapporto fra edifici antichi ed edifici moderni. Questo rapporto diventa più complesso quando il resto archeologico, come nel caso del Palazzo di Teoderico, si trova a dover dialogare con la città che gli è cresciuta sopra e intorno. Fra archeologia e città si crea un rapporto spesso conflittuale che deve divenire sinergico. Il momento conoscitivo dello scavo si deve trasformare in un momento di valorizzazione della città. I resti archeologici sono come un taglio nel ventre della storia della città, un grande scavo urbano che, portato alla luce, ha bisogno di essere inquadrato in un progetto urbano. Ravenna necessita quindi di un progetto che faccia di tutte queste centralità un polo di attrazione, di vita, di scambio, di integrazione e conoscenza. La salvaguardia del bene archeologico deve divenire parte di un progetto più complessivo, di attenzione alla qualità del vivere, rispetto alla quale l’archeologia deve saper conciliare la salvaguardia con gli interessi più generali della collettività. L’intervento di creazione del Parco Archeologico del Palazzo di Teoderico, che ingloba al suo interno anche la Basilica di Sant’Apollinare Nuovo e la chiesa di San Salvatore ad Calchi, deve diventare momento di valorizzazione dell’intera città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il sisma che ha colpito l’Emilia nel maggio 2012 è stato il punto di partenza per ripensare la campagna di Motta di Cavezzo. Questa necessità è nata dall’abbandono delle campagne emiliane da parte dei propri abitanti a causa della paura e dei crolli. In seguito al drammatico evento, il paesaggio è rimasto gravemente danneggiato, perdendo una buona parte degli edifici tipici della tradizione costruttiva locale, come case coloniche, stalle, fienili e ville di campagna. L’intervento progettuale mira a riportare l’attenzione sulla campagna ed a rivitalizzarla attraverso l’inserimento di un’attività produttiva (la cantina vinicola), un’attività commerciale (un mercato dei prodotti tipici) e funzioni rivolte alla conoscenza del territorio, rispettando sempre la tradizione costruttiva e tipologica locale. Attraverso interventi puntuali e non troppo invasivi, sono state ricongiunte tra loro le preesistenze storiche, ovvero la Chiesa di Santa Maria ad Nives e Villa Molza e allo stesso tempo sono state messe a sistema con il fiume Secchia e con il paesaggio circostante. Si è andato così a sviluppare quello che può essere un esempio tipo di intervento per un’area di campagna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca che si presenta è suddiviso in tre capitoli nei quali, da altrettanti punti di osservazione, è analizzato il tema della instabilità del lavoro. Nel primo capitolo, il candidato evidenzia le cause che hanno determinato il vorticoso aumento di utilizzo dei contratti di lavoro flessibili e, a tal proposito, da un prospettiva extra-nazionale, analizza le direttive europee e, i principi comuni e le guidelines che, nel percorso di sviluppo della strategia europea per l’occupazione, hanno posto la flexicurity come modello di mercato europeo tipico; dalla medesima prospettiva, prendendo spunto dai cambiamenti del mercato globale, si pone attenzione all’analisi economica del diritto del lavoro e, in particolare, alle conseguenze che le trasformazioni economiche generano sulla capacità di questa materia di tenere elevato il grado di sicurezza occupazionale connesso alla stipula dei contratti di lavoro. Il secondo capitolo è dedicato al ruolo svolto in Italia dai sindacati sul tema della flessibilità. In tal senso, l’autore evidenzia come la funzione “istituzionale” cui sono chiamate anche le organizzazioni dei lavoratori abbia caratterizzato le scelte di politica sindacale in materia di lavori temporanei; è così preso in esame il concetto di flessibilità “contrattata”, come già emerso in dottrina, e si teorizza la differenza tra rinvii “aperti” e rinvii “chiusi”, quali differenti forme di delega di potere normativo alle parti sociali in materia di flessibilità. Nel terzo ed ultimo capitolo l’autore tenta di evidenziare i vantaggi e le funzioni che derivano dall’utilizzo del contratto a termine, quale principale forma di impiego flessibile del nostro mercato del lavoro. Premessi tali benefici viene formulato un giudizio critico rispetto al grado di liberalizzazione che, con le ultime riforme, è stato ammesso per questo istituto sempre più strumento di arbitrio del datore di lavoro nella scelta della durata e delle condizioni di svolgimento della prestazione di lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato affronta in primo luogo la progettazione e il design CAD del sistema di misura impedenziometrico ad alta risoluzione. La seconda parte tratta un'upgrade del software per implementare una funzione di risparmio energetico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è motivato dal problema della constituzione di unità percettive a livello della corteccia visiva primaria V1. Si studia dettagliatamente il modello geometrico di Citti-Sarti con particolare attenzione alla modellazione di fenomeni di associazione visiva. Viene studiato nel dettaglio un modello di connettività. Il contributo originale risiede nell'adattamento del metodo delle diffusion maps, recentemente introdotto da Coifman e Lafon, alla geometria subriemanniana della corteccia visiva. Vengono utilizzati strumenti di teoria del potenziale, teoria spettrale, analisi armonica in gruppi di Lie per l'approssimazione delle autofunzioni dell'operatore del calore sul gruppo dei moti rigidi del piano. Le autofunzioni sono utilizzate per l'estrazione di unità percettive nello stimolo visivo. Sono presentate prove sperimentali e originali delle capacità performanti del metodo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il rischio di caduta durante la deambulazione aumenta con l'età; le cadute comportano costi elevati per l’assistenza sanitaria ed hanno un influenza critica sullo stato di salute dell'anziano. La valutazione della stabilità del cammino rappresenta un aspetto fondamentale per la definizione di un indice del rischio di caduta. Diverse misure di variabilità e stabilità del cammino sono state proposte in letteratura con l'obiettivo di ottenere una standardizzazione metodologica e risultati affidabili, ripetibili e facilmente interpretabili. Queste misure andrebbero ad integrare, o sostituire, le scale cliniche, unico metodo attualmente in uso ma la cui affidabilità è limitata in quanto fortemente dipendente dall’operatore. Il fine ultimo è quello di definire un indice del rischio di caduta specifico per il soggetto. Gli obiettivi della tesi comprendono la valutazione della ripetibilità in dipendenza dalla lunghezza del trial di una serie di misure di variabilità e stabilità applicate al cammino di soggetti anziani, la valutazione della correlazione fra queste misure di variabilità e stabilità e il risultato delle scale cliniche e la valutazione della correlazione fra queste misure di variabilità e stabilità e la storia di caduta dei soggetti. Per fare questo si sono somministrati alcuni questionari e schede di valutazione funzionale (CIRS, Barthel, Mini-BESTest) a 70 soggetti di età superiore a 65 anni. Questi hanno eseguito inoltre una camminata lungo un tratto rettilineo di circa 100 m di lunghezza; il relativo segnale accelerometrico è stato registrato mediante sensori inerziali. Il risultato generale ottenuto è che alcune misure di stabilità come la MSE e la RQA, già in passato risultate legate alla storia di cadute, mostrano promettenti performance per la definizione del rischio di caduta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione:l’interferone (IFN) usato per l’eradicazione del virus dell’Epatite C, induce effetti collaterali anche riferibili alla sfera psichica. I dati sugli eventi avversi di tipo psichiatrico dei nuovi farmaci antivirali (DAA) sono limitati. Lo scopo di questo studio è di valutare lo sviluppo di effetti collaterali di tipo psichiatrico in corso di due distinti schemi di trattamento: IFN-peghilato e ribavirina [terapia duplice (standard o SOC)]; DAA in associazione a IFN-peghilato e ribavirina (terapia triplice). Metodi: pazienti HCV+ consecutivi seguiti presso l’Ambulatorio delle Epatiti Croniche della Semeiotica Medica del Dipartimento di Scienze Mediche e Chirurgiche dell’Università di Bologna in procinto di intraprendere un trattamento antivirale a base di IFN, sottoposti ad esame psicodiagnostico composto da intervista clinica semistrutturata e test autosomministrati: BDI, STAXI-2, Hamilton Anxiety Scale, MMPI – 2. Risultati: Sono stati arruolati 84 pazienti, 57/84 (67.9%) nel gruppo in triplice e 27/84 nel gruppo SOC. Quasi tutti i pazienti arruolati hanno eseguito l’intervista clinica iniziale (82/84; 97.6%), mentre scarsa è stata l’aderenza ai test (valori missing>50%). Ad eccezione dell’ansia, la prevalenza di tutti gli altri disturbi (irritabilità, astenia, disfunzioni neurocognitive, dissonnia) aumentava in corso di trattamento. In corso di terapia antivirale 43/84 (51.2%) hanno avuto bisogno di usufruire del servizio di consulenza psichiatrica e 48/84 (57.1%) hanno ricevuto una psicofarmacoterapia di supporto, senza differenze significative fra i due gruppi di trattamento. Conclusioni : uno degli elementi più salienti dello studio è stata la scarsa aderenza ai test psicodiagnostici, nonostante l’elevata prevalenza di sintomi psichiatrici. I risultati di questo studio oltre ad evidenziare l’importanza dei sintomi psichiatrici in corso di trattamento e la rilevanza della consulenza psicologica e psichiatrica per consentire di portare a termine il ciclo terapeutico previsto (migliorandone l’efficacia), ha anche dimostrato che occorre ripensare gli strumenti diagnostici adattandoli probabilmente a questo specifico target.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'intervento di connessione cavo-polmonare totale (TCPC) nei pazienti portatori di cuore univentricolare, a causa della particolare condizione emodinamica, determina un risentimento a carico di numerosi parenchimi. Scopo della ricerca è di valutare l'entità di questo danno ad un follow-up medio-lungo. Sono stati arruolati 115 pazienti, sottoposti ad intervento presso i centri di Cardiochirurgia Pediatrica di Bologna (52 pz) e Torino (63 pz). Il follow-up medio è stato di 125±2 mesi. I pazienti sono stati sottoposti ad indagine emodinamica (88 pz), test cardiopolmonare (75 pz) e Fibroscan ed ecografia epatica (47 pz). La pressione polmonare media è stata di 11.5±2.6mmHg, ed in 12 pazienti i valori di pressione polmonare erano superiori a 15mmHg. La pressione atriale media era di 6.7±2.3mmHg ed il calcolo delle resistenze vascolari polmonari indicizzate (RVP) era in media di 2±0.99 UW/m2. In 29 pazienti le RVP erano superiori a 2 UW/m2. La VO2 max in media era pari a 28±31 ml/Kg/min, 58±15 % del valore teorico. La frequenza cardiaca massima all'apice dello sforzo era di 151±22 bpm, pari al 74±17% del valore teorico. Il Fibroscan ha fornito un valore medio di 17.01 kPa (8-34.3kPa). Cinque pazienti erano in classe F2, 9 pazienti in classe F3 e 33 pazienti risultavano in classe F4. Nei pazienti con follow-up maggiore di 10 anni il valore di stiffness epatica (19.6±5.2kPa) è risultato significativamente maggiore a quello dei pazienti con follow-up minore di 10 anni (15.1±5.8kPa, p<0.01). La frequenza cardiaca massima raggiunta durante lo sforzo del test cardiopolmonare è risultata significativamente correlata alla morfologia del ventricolo unico, risultando del 67.8±14.4% del valore teorico nei pazienti portatori di ventricolo destro contro il 79.6±8.7% dei portatori di ventricolo sinistro (p=0.006). L'intervento di TCPC determina un risentimento a carico di numerosi parenchimi proporzionale alla lunghezza del follow-up, e necessita pertanto un costante monitoraggio clinico-strumentale multidisciplinare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I modelli su reticolo con simmetrie SU(n) sono attualmente oggetto di studio sia dal punto di vista sperimentale, sia dal punto di vista teorico; particolare impulso alla ricerca in questo campo è stato dato dai recenti sviluppi in campo sperimentale per quanto riguarda la tecnica dell’intrappolamento di atomi ultrafreddi in un reticolo ottico. In questa tesi viene studiata, sia con tecniche analitiche sia con simulazioni numeriche, la generalizzazione del modello di Heisenberg su reticolo monodimensionale a simmetria SU(3). In particolare, viene proposto un mapping tra il modello di Heisenberg SU(3) e l’Hamiltoniana con simmetria SU(2) bilineare-biquadratica con spin 1. Vengono inoltre presentati nuovi risultati numerici ottenuti con l’algoritmo DMRG che confermano le previsioni teoriche in letteratura sul modello in esame. Infine è proposto un approccio per la formulazione della funzione di partizione dell’Hamiltoniana bilineare-biquadratica a spin-1 servendosi degli stati coerenti per SU(3).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi della Massa come grandezza fisica. Accenni ai metodi utilizzati in Astrofisica per la sua misurazione; massa di Jeans; Materia Oscura; limite di Chandrasekhar; diagramma H-R; sistemi doppi; trasferimento di massa e Funzione di massa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi è indagare le capacità di ALMA di osservare il continuo e le righe molecolari di emissione di HCN, HCO+ e HNC, in galassie lensate ad alto z, nelle prime fasi della loro formazione. Per farlo vengono utilizzate osservazioni ALMA di righe di emissione molecolare, relative a dati pubblici di Ciclo 0. Queste osservazioni vengono utilizzate per simulare in modo realistico l’emissione da parte di galassie ad alto z e la risposta osservativa del telescopio, assumendo diverse possibili geometrie di lensing. Inoltre le recenti osservazioni ALMA sono state utilizzate per aggiornare le relazioni già esistenti tra la luminosità FIR e la luminosità delle righe molecolari. Queste recenti osservazioni con maggiore sensibilità e risoluzione angolare, sembrano essere in buon accordo con le precedenti osservazioni. Per realizzare questo progetto di tesi, sono stati scaricati dall’archivio ALMA i dati non calibrati relativi a due sorgenti ben studiate: NGC1614, rappresentativa delle galassie di tipo starburst ed IRAS 20551-4250, un AGN oscurato. Il processo di calibrazione è stato ripetuto per esaminare le proprietà dei cubi di dati utilizzando il pacchetto Common Astronomy Software Applications (CASA). Le righe spettrali osservate e l’emissione del continuo sono state successivamente estrapolate ad alto z riscalando adeguatamente le distanze, le dimensioni delle sorgenti e le frequenze di emissione. In seguito è stato applicato un modello di lensing gravitazionale basato su quello di Lapi et al. (2012). Sono state considerate diverse configurazioni tra lente e sorgente per ottenere diverse geometrie delle immagini e diversi fattori di amplificazione. Infine stato utilizzato il software CASA per simulare le osservazioni ALMA in modo da verificare le capacità osservative del telescopio al variare della geometria del sistema. Per ogni riga molecolare e per l’emissione del continuo sono state determinate la sensibilit e la risoluzione che possono essere raggiunte con le osservazioni ALMA e sono state analizzate alcune strategie osservative per effettuare survey di righe spettrali in oggetti lensati. Inoltre stata analizzata la possibilit di caratterizzare oggetti starburst ed AGN dai rapporti tra le righe di emissione delle molecole traccianti di alta densit. Le prestazioni di ALMA consentiranno di distinguere e stimare i contributi relativi di SB ed AGN in galassie lensate a z > 2.5, quindi vicine alla loro presunta epoca di formazione (Lapi et al. 2010), in meno di 5 minuti di osservazione per qualsiasi fattore di magnificazione. Nel presente lavoro sono state inoltre discusse alcune strategie osservative per condurre survey o followup per osservare le righe di HCN(4-3), HCO+(4-3) e HNC(4-3) in galassie lensate a redshift 2.5 < z < 3, dimostrando che sono possibili per campioni statisticamente significativi in tempi relativamente brevi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'energia solare rientra nel gruppo delle energie rinnovabili, ovvero che provengono da una fonte il cui utilizzo attuale non ne pregiudica la disponibilità nel futuro. L'energia solare ha molti vantaggi, poiché è inesauribile ed è una risorsa d'immediata disponibilità perché giunge attraverso i raggi del sole. La conversione fotovoltaica sfrutta il meccanismo di generazione di carica elettrica prodotto dall'interazione della radiazione luminosa su di un materiale semiconduttore. La necessità di creare energia riducendo al minimo l'impatto ambientale ed il contemporaneo aumento del prezzo di fonti fossili come ad esempio il petrolio ed il carbone (senza trascurare il fatto che le riserve di essi sono, di fatto, esauribili) ha portato un aumento considerevole della produzione di energia elettrica tramite conversione fotovoltaica. Allo stato attuale dell'economia e dei mercati, sebbene il settore fotovoltaico sia in forte crescita, non è esente da un parametro che ne descrive le caratteristiche economiche ed energetiche, il cosiddetto rapporto costo/efficienza. Per efficienza, si intende la quantità di energia elettrica prodotta rispetto alla potenza solare incidente per irraggiamento, mentre per costo si intende quello sostenuto per la costruzione della cella. Ridurre il rapporto costo/efficienza equivale a cercare di ottenere un'efficienza maggiore mantenendo inalterati i costi, oppure raggiungere una medio-alta efficienza ma ridurre in maniera significativa la spesa di fabbricazione. Quindi, nasce la necessità di studiare e sviluppare tecnologie di celle solari all'avanguardia, che adottino accorgimenti tecnologici tali per cui, a parità di efficienza di conversione, il costo di produzione della cella sia il più basso possibile. L'efficienza dei dispositivi fotovoltaici è limitata da perdite ottiche, di ricombinazione di carica e da resistenze parassite che dipendono da diversi fattori, tra i quali, le proprietà ottiche e di trasporto di carica dei materiali, l'architettura della cella e la capacità di intrappolare la luce da parte del dispositivo. Per diminuire il costo della cella, la tecnologia fotovoltaica ha cercato di ridurre il volume di materiale utilizzato (in genere semiconduttore), dal momento in cui si ritiene che il 40% del costo di una cella solare sia rappresentato dal materiale. Il trend che questo approccio comporta è quello di spingersi sempre di più verso spessori sottili, come riportato dalla International Technology Roadmap for Photovoltaic, oppure ridurre il costo della materia prima o del processo. Tra le architetture avanzate di fabbricazione si analizzano le Passivated Emitter and Rear Cell-PERC e le Metal Wrap Through-MWT Cell, e si studia, attraverso simulazioni numeriche TCAD, come parametri geometrici e di drogaggio vadano ad influenzare le cosiddette figure di merito di una cella solare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra le plurime conseguenze dell’avvento del digitale, la riarticolazione dei rapporti tra immagine statica e immagine in movimento è certamente una delle più profonde. Sintomatica dei cambiamenti in atto sia nei film studies sia nella storia dell’arte, tale riarticolazione richiede un ripensamento dei confini disciplinari tradizionali entro cui il cinema e la fotografia sono stati affrontati come oggetti di studio separati e distinti. Nell’adottare un approccio molteplice, volto a comprendere prospettive provenienti dalla New Film History e dalla media archaeology, dalla teoria dell’arte e dagli studi visuali, questo lavoro esplora l’esistenza di una relazione dialettica tra il cinema e la fotografia intesa in modo duplice: come tensione costitutiva tra due media indissolubilmente connessi – non tanto in considerazione di un medesimo principio realistico di rappresentazione quanto, piuttosto, in virtù di uno scambio incessante nella modellizzazione di categorie quali il tempo, il movimento, l’immobilità, l’istante, la durata; come istanza peculiare della pratica artistica contemporanea, paradigma di riferimento nella produzione estetica di immagini. La tesi si suddivide in tre capitoli. Il primo si concentra sul rapporto tra l’immobilità e il movimento dell’immagine come cifra in grado di connettere l’estetica delle attrazioni e la cronofotografia a una serie di esperienze filmiche e artistiche prodotte nei territori delle avanguardie. Il secondo capitolo considera l’emergenza, dagli anni Novanta, di pratiche artistiche in cui l’incontro intermediale tra film e fotografia fornisce modelli di analisi volti all’indagine dell’attuale condizione estetica e tecnologica. Il terzo offre una panoramica critica su un caso di studio, la GIF art. La GIF è un formato digitale obsoleto che consente di produrre immagini che appaiono, simultaneamente, come fisse e animate; nel presente lavoro, la GIF è discussa come un medium capace di contraddire i confini attraverso cui concepiamo l’immagine fissa e in movimento, suggerendo, inoltre, un possibile modello di pensiero storico-cronologico anti-lineare.