14 resultados para immagini Fourier convoluzione deconvoluzione Kernel
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
The aim of this work is to present various aspects of numerical simulation of particle and radiation transport for industrial and environmental protection applications, to enable the analysis of complex physical processes in a fast, reliable, and efficient way. In the first part we deal with speed-up of numerical simulation of neutron transport for nuclear reactor core analysis. The convergence properties of the source iteration scheme of the Method of Characteristics applied to be heterogeneous structured geometries has been enhanced by means of Boundary Projection Acceleration, enabling the study of 2D and 3D geometries with transport theory without spatial homogenization. The computational performances have been verified with the C5G7 2D and 3D benchmarks, showing a sensible reduction of iterations and CPU time. The second part is devoted to the study of temperature-dependent elastic scattering of neutrons for heavy isotopes near to the thermal zone. A numerical computation of the Doppler convolution of the elastic scattering kernel based on the gas model is presented, for a general energy dependent cross section and scattering law in the center of mass system. The range of integration has been optimized employing a numerical cutoff, allowing a faster numerical evaluation of the convolution integral. Legendre moments of the transfer kernel are subsequently obtained by direct quadrature and a numerical analysis of the convergence is presented. In the third part we focus our attention to remote sensing applications of radiative transfer employed to investigate the Earth's cryosphere. The photon transport equation is applied to simulate reflectivity of glaciers varying the age of the layer of snow or ice, its thickness, the presence or not other underlying layers, the degree of dust included in the snow, creating a framework able to decipher spectral signals collected by orbiting detectors.
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
Resumo:
Every seismic event produces seismic waves which travel throughout the Earth. Seismology is the science of interpreting measurements to derive information about the structure of the Earth. Seismic tomography is the most powerful tool for determination of 3D structure of deep Earth's interiors. Tomographic models obtained at the global and regional scales are an underlying tool for determination of geodynamical state of the Earth, showing evident correlation with other geophysical and geological characteristics. The global tomographic images of the Earth can be written as a linear combinations of basis functions from a specifically chosen set, defining the model parameterization. A number of different parameterizations are commonly seen in literature: seismic velocities in the Earth have been expressed, for example, as combinations of spherical harmonics or by means of the simpler characteristic functions of discrete cells. With this work we are interested to focus our attention on this aspect, evaluating a new type of parameterization, performed by means of wavelet functions. It is known from the classical Fourier theory that a signal can be expressed as the sum of a, possibly infinite, series of sines and cosines. This sum is often referred as a Fourier expansion. The big disadvantage of a Fourier expansion is that it has only frequency resolution and no time resolution. The Wavelet Analysis (or Wavelet Transform) is probably the most recent solution to overcome the shortcomings of Fourier analysis. The fundamental idea behind this innovative analysis is to study signal according to scale. Wavelets, in fact, are mathematical functions that cut up data into different frequency components, and then study each component with resolution matched to its scale, so they are especially useful in the analysis of non stationary process that contains multi-scale features, discontinuities and sharp strike. Wavelets are essentially used in two ways when they are applied in geophysical process or signals studies: 1) as a basis for representation or characterization of process; 2) as an integration kernel for analysis to extract information about the process. These two types of applications of wavelets in geophysical field, are object of study of this work. At the beginning we use the wavelets as basis to represent and resolve the Tomographic Inverse Problem. After a briefly introduction to seismic tomography theory, we assess the power of wavelet analysis in the representation of two different type of synthetic models; then we apply it to real data, obtaining surface wave phase velocity maps and evaluating its abilities by means of comparison with an other type of parametrization (i.e., block parametrization). For the second type of wavelet application we analyze the ability of Continuous Wavelet Transform in the spectral analysis, starting again with some synthetic tests to evaluate its sensibility and capability and then apply the same analysis to real data to obtain Local Correlation Maps between different model at same depth or between different profiles of the same model.
Resumo:
Machine learning comprises a series of techniques for automatic extraction of meaningful information from large collections of noisy data. In many real world applications, data is naturally represented in structured form. Since traditional methods in machine learning deal with vectorial information, they require an a priori form of preprocessing. Among all the learning techniques for dealing with structured data, kernel methods are recognized to have a strong theoretical background and to be effective approaches. They do not require an explicit vectorial representation of the data in terms of features, but rely on a measure of similarity between any pair of objects of a domain, the kernel function. Designing fast and good kernel functions is a challenging problem. In the case of tree structured data two issues become relevant: kernel for trees should not be sparse and should be fast to compute. The sparsity problem arises when, given a dataset and a kernel function, most structures of the dataset are completely dissimilar to one another. In those cases the classifier has too few information for making correct predictions on unseen data. In fact, it tends to produce a discriminating function behaving as the nearest neighbour rule. Sparsity is likely to arise for some standard tree kernel functions, such as the subtree and subset tree kernel, when they are applied to datasets with node labels belonging to a large domain. A second drawback of using tree kernels is the time complexity required both in learning and classification phases. Such a complexity can sometimes prevents the kernel application in scenarios involving large amount of data. This thesis proposes three contributions for resolving the above issues of kernel for trees. A first contribution aims at creating kernel functions which adapt to the statistical properties of the dataset, thus reducing its sparsity with respect to traditional tree kernel functions. Specifically, we propose to encode the input trees by an algorithm able to project the data onto a lower dimensional space with the property that similar structures are mapped similarly. By building kernel functions on the lower dimensional representation, we are able to perform inexact matchings between different inputs in the original space. A second contribution is the proposal of a novel kernel function based on the convolution kernel framework. Convolution kernel measures the similarity of two objects in terms of the similarities of their subparts. Most convolution kernels are based on counting the number of shared substructures, partially discarding information about their position in the original structure. The kernel function we propose is, instead, especially focused on this aspect. A third contribution is devoted at reducing the computational burden related to the calculation of a kernel function between a tree and a forest of trees, which is a typical operation in the classification phase and, for some algorithms, also in the learning phase. We propose a general methodology applicable to convolution kernels. Moreover, we show an instantiation of our technique when kernels such as the subtree and subset tree kernels are employed. In those cases, Direct Acyclic Graphs can be used to compactly represent shared substructures in different trees, thus reducing the computational burden and storage requirements.
Resumo:
This doctoral dissertation faces the debated topic of the traditions of Republicanism in the Modern Age assuming, as a point of view, the problem of the "mixed" government. The research therefore dwells upon the use of this model in Sixteenth-Century Italy, also in connection with the historical events of two standard Republics such as Florence and Venice. The work focuses on Donato Giannotti (1492-1573), Gasparo Contarini (1483-1542) and Paolo Paruta (1540-1598), as the main figures in order to reconstruct the debate on "mixed" constitution: in them, decisive in the attention paid to the peculiar structure of the Venetian Republic, the only of a certain dimension and power to survive after 1530. The research takes into account also the writings of Traiano Boccalini (1556-1613): he himself, though being involved in the same topics of debate, sets for some aspects his considerations in the framework of a new theme, that of Reason of State.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
Il progetto di tesi dottorale qui presentato intende proporsi come il proseguimento e l’approfondimento del progetto di ricerca - svoltosi tra il e il 2006 e il 2008 grazie alla collaborazione tra l’Università di Bologna, la Cineteca del Comune e dalla Fondazione Istituto Gramsci Emilia-Romagna - dal titolo Analisi e catalogazione dell’Archivio audiovisivo del PCI dell’Emilia-Romagna di proprietà dell’Istituto Gramsci. La ricerca ha indagato la menzionata collezione che costituiva, in un arco temporale che va dagli anni Cinquanta agli anni Ottanta, una sorta di cineteca interna alla Federazione del Partito Comunista Italiano di Bologna, gestita da un gruppo di volontari denominato “Gruppo Audiovisivi della Federazione del PCI”. Il fondo, entrato in possesso dell’Istituto Gramsci nel 1993, è composto, oltre che da documenti cartacei, anche e sopratutto da un nutrito numero di film e documentari in grado di raccontare sia la storia dell’associazione (in particolare, delle sue relazioni con le sezioni e i circoli della regione) sia, in una prospettiva più ampia, di ricostruire il particolare rapporto che la sede centrale del partito intratteneva con una delle sue cellule regionali più importanti e rappresentative. Il lavoro svolto sul fondo Gramsci ha suscitato una serie di riflessioni che hanno costituito la base per il progetto della ricerca presentata in queste pagine: prima fra tutte, l’idea di realizzare un censimento, da effettuarsi su base regionale, per verificare quali e quanti audiovisivi di propaganda comunista fossero ancora conservati sul territorio. La ricerca, i cui esiti sono consultabili nell’appendice di questo scritto, si è concentrata prevalentemente sugli archivi e sui principali istituti di ricerca dell’Emilia-Romagna: sono questi i luoghi in cui, di fatto, le federazioni e le sezioni del PCI depositarono (o alle quali donarono) le proprie realizzazioni o le proprie collezioni audiovisive al momento della loro chiusura. Il risultato dell’indagine è un nutrito gruppo di film e documentari, registrati sui supporti più diversi e dalle provenienze più disparate: produzioni locali, regionali, nazionali (inviati dalla sede centrale del partito e dalle istituzioni addette alla propaganda), si mescolano a pellicole provenienti dall’estero - testimoni della rete di contatti, in particolare con i paesi comunisti, che il PCI aveva intessuto nel tempo - e a documenti realizzati all’interno dell’articolato contesto associazionistico italiano, composto sia da organizzazioni nazionali ben strutturate sul territorio 8 sia da entità più sporadiche, nate sull’onda di particolari avvenimenti di natura politica e sociale (per esempio i movimenti giovanili e studenteschi sorti durante il ’68). L’incontro con questa tipologia di documenti - così ricchi di informazioni differenti e capaci, per loro stessa natura, di offrire stimoli e spunti di ricerca assolutamente variegati - ha fatto sorgere una serie di domande di diversa natura, che fanno riferimento non solo all’audiovisivo in quanto tale (inteso in termini di contenuti, modalità espressive e narrative, contesto di produzione) ma anche e soprattutto alla natura e alle potenzialità dell’oggetto indagato, concepito in questo caso come una fonte. In altri termini, la raccolta e la catalogazione del materiale, insieme alle ricerche volte a ricostruirne le modalità produttive, gli argomenti, i tratti ricorrenti nell’ambito della comunicazione propagandistica, ha dato adito a una riflessione di carattere più generale, che guarda al rapporto tra mezzo cinematografico e storiografia e, più in dettaglio, all’utilizzo dell’immagine filmica come fonte per la ricerca. Il tutto inserito nel contesto della nostra epoca e, più in particolare, delle possibilità offerte dai mezzi di comunicazione contemporanei. Di fatti, il percorso di riflessione compiuto in queste pagine intende concludersi con una disamina del rapporto tra cinema e storia alla luce delle novità introdotte dalla tecnologia moderna, basata sui concetti chiave di riuso e di intermedialità. Processi di integrazione e rielaborazione mediale capaci di fornire nuove potenzialità anche ai documenti audiovisivi oggetto dei questa analisi: sia per ciò che riguarda il loro utilizzo come fonte storica, sia per quanto concerne un loro impiego nella didattica e nell’insegnamento - nel rispetto della necessaria interdisciplinarietà richiesta nell’utilizzo di questi documenti - all’interno di una più generale rivoluzione mediale che mette in discussione anche il classico concetto di “archivio”, di “fonte” e di “documento”. Nel tentativo di bilanciare i differenti aspetti che questa ricerca intende prendere in esame, la struttura del volume è stata pensata, in termini generali, come ad un percorso suddiviso in tre tappe: la prima, che guarda al passato, quando gli audiovisivi oggetto della ricerca vennero prodotti e distribuiti; una seconda sezione, che fa riferimento all’oggi, momento della riflessione e dell’analisi; per concludere in una terza area, dedicata alla disamina delle potenzialità di questi documenti alla luce delle nuove tecnologie multimediali. Un viaggio che è anche il percorso “ideale” condotto dal ricercatore: dalla scoperta all’analisi, fino alla rimessa in circolo (anche sotto un’altra forma) degli oggetti indagati, all’interno di un altrettanto ideale universo culturale capace di valorizzare qualsiasi tipo di fonte e documento. All’interno di questa struttura generale, la ricerca è stata compiuta cercando di conciliare diversi piani d’analisi, necessari per un adeguato studio dei documenti rintracciati i quali, come si è detto, si presentano estremamente articolati e sfaccettati. 9 Dal punto di vista dei contenuti, infatti, il corpus documentale presenta praticamente tutta la storia italiana del tentennio considerato: non solo storia del Partito Comunista e delle sue campagne di propaganda, ma anche storia sociale, culturale ed economica, in un percorso di crescita e di evoluzione che, dagli anni Cinquanta, portò la nazione ad assumere lo status di paese moderno. In secondo luogo, questi documenti audiovisivi sono prodotti di propaganda realizzati da un partito politico con il preciso scopo di convincere e coinvolgere le masse (degli iscritti e non). Osservarne le modalità produttive, il contesto di realizzazione e le dinamiche culturali interne alla compagine oggetto della ricerca assume un valore centrale per comprendere al meglio la natura dei documenti stessi. I quali, in ultima istanza, sono anche e soprattutto dei film, realizzati in un preciso contesto storico, che è anche storia della settima arte: più in particolare, di quella cinematografia che si propone come “alternativa” al circuito commerciale, strettamente collegata a quella “cultura di sinistra” sulla quale il PCI (almeno fino alla fine degli anni Sessanta) poté godere di un dominio incontrastato. Nel tentativo di condurre una ricerca che tenesse conto di questi differenti aspetti, il lavoro è stato suddiviso in tre sezioni distinte. La prima (che comprende i capitoli 1 e 2) sarà interamente dedicata alla ricostruzione del panorama storico all’interno del quale questi audiovisivi nacquero e vennero distribuiti. Una ricostruzione che intende osservare, in parallelo, i principali eventi della storia nazionale (siano essi di natura politica, sociale ed economica), la storia interna del Partito Comunista e, non da ultimo, la storia della cinematografia nazionale (interna ed esterna al partito). Questo non solo per fornire il contesto adeguato all’interno del quale inserire i documenti osservati, ma anche per spiegarne i contenuti: questi audiovisivi, infatti, non solo sono testimoni degli eventi salienti della storia politica nazionale, ma raccontano anche delle crisi e dei “boom” economici; della vita quotidiana della popolazione e dei suoi problemi, dell’emigrazione, della sanità e della speculazione edilizia; delle rivendicazioni sociali, del movimento delle donne, delle lotte dei giovani sessantottini. C’è, all’interno di questi materiali, tutta la storia del paese, che è contesto di produzione ma anche soggetto del racconto. Un racconto che, una volta spiegato nei contenuti, va indagato nella forma. In questo senso, il terzo capitolo di questo scritto si concentrerà sul concetto di “propaganda” e nella sua verifica pratica attraverso l’analisi dei documenti reperiti. Si cercherà quindi di realizzare una mappatura dei temi portanti della comunicazione politica comunista osservata nel suo evolversi e, in secondo luogo, di analizzare come questi stessi temi-chiave vengano di volta in volta declinati e 10 rappresentati tramite le immagini in movimento. L’alterità positiva del partito - concetto cardine che rappresenta il nucleo ideologico fondante la struttura stessa del Partito Comunista Italiano - verrà quindi osservato nelle sue variegate forme di rappresentazione, nel suo incarnare, di volta in volta, a seconda dei temi e degli argomenti rilevanti, la possibilità della pace; il buongoverno; la verità (contro la menzogna democristiana); la libertà (contro il bigottismo cattolico); la possibilità di un generale cambiamento. La realizzazione di alcuni percorsi d’analisi tra le pellicole reperite presso gli archivi della regione viene proposto, in questa sede, come l’ideale conclusione di un excursus storico che, all’interno dei capitoli precedenti, ha preso in considerazione la storia della cinematografia nazionale (in particolare del contesto produttivo alternativo a quello commerciale) e, in parallelo, l’analisi della produzione audiovisiva interna al PCI, dove si sono voluti osservare non solo gli enti e le istituzioni che internamente al partito si occupavano della cultura e della propaganda - in una distinzione terminologica non solo formale - ma anche le reti di relazioni e i contatti con il contesto cinematografico di cui si è detto. L’intenzione è duplice: da un lato, per inserire la storia del PCI e dei suoi prodotti di propaganda in un contesto socio-culturale reale, senza considerare queste produzioni - così come la vita stessa del partito - come avulsa da una realtà con la quale necessariamente entrava in contatto; in secondo luogo, per portare avanti un altro tipo di discorso, di carattere più speculativo, esplicitato all’interno del quarto capitolo. Ciò che si è voluto indagare, di fatto, non è solo la natura e i contenti di questi documenti audiovisivi, ma anche il loro ruolo nel sistema di comunicazione e di propaganda di partito, dove quest’ultima è identificata come il punto di contatto tra l’intellighenzia comunista (la cultura alta, legittima) e la cultura popolare (in termini gramsciani, subalterna). Il PCI, in questi termini, viene osservato come un microcosmo in grado di ripropone su scala ridotta le dinamiche e le problematiche tipiche della società moderna. L’analisi della storia della sua relazione con la società (cfr. capitolo 2) viene qui letta alla luce di alcune delle principali teorie della storia del consumi e delle interpretazioni circa l’avvento della società di massa. Lo scopo ultimo è quello di verificare se, con l’affermazione dell’industria culturale moderna si sia effettivamente verificata la rottura delle tradizionali divisioni di classe, della classica distinzione tra cultura alta e bassa, se esiste realmente una zona intermedia - nel caso del partito, identificata nella propaganda - in cui si attui concretamente questo rimescolamento, in cui si realizzi realmente la nascita di una “terza cultura” effettivamente nuova e dal carattere comunitario. Il quinto e ultimo capitolo di questo scritto fa invece riferimento a un altro ordine di problemi e argomenti, di cui in parte si è già detto. La ricerca, in questo caso, si è indirizzata verso una 11 riflessione circa l’oggetto stesso dello studio: l’audiovisivo come fonte. La rassegna delle diverse problematiche scaturite dal rapporto tra cinema e storia è corredata dall’analisi delle principali teorie che hanno permesso l’evoluzione di questa relazione, evidenziando di volta in volta le diverse potenzialità che essa può esprimere le sue possibilità d’impiego all’interno di ambiti di ricerca differenti. Il capitolo si completa con una panoramica circa le attuali possibilità di impiego e di riuso di queste fonti: la rassegna e l’analisi dei portali on-line aperti dai principali archivi storici nazionali (e la relativa messa a disposizione dei documenti); il progetto per la creazione di un “museo multimediale del lavoro” e, a seguire, il progetto didattico dei Learning Objects intendono fornire degli spunti per un futuro, possibile utilizzo di questi documenti audiovisivi, di cui questo scritto ha voluto porre in rilievo il valore e le numerose potenzialità.
Resumo:
This thesis focuses on studying molecular structure and internal dynamics by using pulsed jet Fourier transform microwave (PJ-FTMW) spectroscopy combined with theoretical calculations. Several kinds of interesting chemical problems are investigated by analyzing the MW spectra of the corresponding molecular systems. First, the general aspects of rotational spectroscopy are summarized, and then the basic theory on molecular rotation and experimental method are described briefly. ab initio and density function theory (DFT) calculations that used in this thesis to assist the assignment of rotational spectrum are also included. From chapter 3 to chapter 8, several molecular systems concerning different kind of general chemical problems are presented. In chapter 3, the conformation and internal motions of dimethyl sulfate are reported. The internal rotations of the two methyl groups split each rotational transition into several components line, allowing for the determination of accurate values of the V3 barrier height to internal rotation and of the orientation of the methyl groups with respect to the principal axis system. In chapter 4 and 5, the results concerning two kinds of carboxylic acid bi-molecules, formed via two strong hydrogen bonds, are presented. This kind of adduct is interesting also because a double proton transfer can easily take place, connecting either two equivalent or two non-equivalent molecular conformations. Chapter 6 concerns a medium strong hydrogen bonded molecular complex of alcohol with ether. The dimer of ethanol-dimethylether was chosen as the model system for this purpose. Chapter 7 focuses on weak halogen…H hydrogen bond interaction. The nature of O-H…F and C-H…Cl interaction has been discussed through analyzing the rotational spectra of CH3CHClF/H2O. In chapter 8, two molecular complexes concerning the halogen bond interaction are presented.
Resumo:
Lo studio analizza il modo in cui la storia dell’arte e la visual culture vengono utilizzate all’interno delle medical humanities, e cerca di suggerire un metodo più utile rispetto a quelli fin qui proposti. Lo scritto è organizzato in due parti. Nella prima parte sono analizzate alcune teorie e pratiche delle scienze umane in medicina. In particolare, ci concentriamo sulla medicina narrativa e sugli approcci con cui la storia dell’arte viene inclusa nella maggioranza dei programmi di medical humanities. Dopodiché, proponiamo di riconsiderare questi metodi e di implementare il ruolo di un pensiero storico e visivo all’interno di tali insegnamenti. Nella seconda parte, alla luce di quanto emerso nella prima, ci dedichiamo a uno studio di caso: la rappresentazione della melanconia amorosa, o mal d’amore, in una serie di dipinti olandesi del Secolo d’Oro. Colleghiamo queste opere a trattati medico-filosofici dell’epoca che permettano di inquadrare il mal d’amore in un contesto storico; in seguito, analizziamo alcune interpretazioni fornite da studiosi e storici dell’arte a noi contemporanei. In particolare, esaminiamo lo studio pionieristico di Henry Meige, pubblicato sulla “Nouvelle iconographie de la Salpêtrière” nel 1899, da cui emerge la possibilità di un confronto critico sia con le posizioni iconodiagnostiche di Charcot e Richer sia con quelle della prima psicoanalisi.
Resumo:
Obiettivo: valutare la tossicità ed il controllo di malattia di un trattamento radioterapico ipofrazionato ad alte dosi con tecnica ad intensità modulata (IMRT) guidata dalle immagini (IGRT) in pazienti affetti da carcinoma prostatico a rischio intermedio, alto ed altissimo di recidiva. Materiali e metodi: tutti i pazienti candidati al trattamento sono stati stadiati e sottoposti al posizionamento di tre “markers” fiduciali intraprostatici necessari per l’IGRT. Mediante tecnica SIB – IMRT sono stati erogati alla prostata 67,50 Gy in 25 frazioni (EQD2 = 81 Gy), alle vescichette 56,25 Gy in 25 frazioni (EQD2 = 60,35 Gy) e ai linfonodi pelvici, qualora irradiati, 50 Gy in 25 frazioni. La tossicità gastrointestinale (GI) e genitourinaria (GU) è stata valutata mediante i CTCAE v. 4.03. Per individuare una possibile correlazione tra i potenziali fattori di rischio e la tossicità registrata è stato utilizzato il test esatto di Fisher e la sopravvivenza libera da malattia è stata calcolata mediante il metodo di Kaplan-Meier. Risultati: sono stati arruolati 71 pazienti. Il follow up medio è di 19 mesi (3-35 mesi). Nessun paziente ha dovuto interrompere il trattamento per la tossicità acuta. Il 14% dei pazienti (10 casi) ha presentato una tossicità acuta GI G ≥ 2 e il 15% (11 pazienti) ha riportato una tossicità acuta GU G2. Per quanto riguarda la tossicità tardiva GI e GU G ≥ 2, essa è stata documentata, rispettivamente, nel 14% dei casi (9 pazienti) e nell’11% (7 pazienti). Non è stata riscontrata nessuna tossicità, acuta o cronica, G4. Nessun fattore di rischio correlava con la tossicità. La sopravvivenza libera da malattia a 2 anni è del 94%. Conclusioni: il trattamento radioterapico ipofrazionato ad alte dosi con IMRT-IGRT appare essere sicuro ed efficace. Sono comunque necessari ulteriori studi per confermare questi dati ed i presupposti radiobiologici dell’ipofrazionamento del carcinoma prostatico.
Resumo:
The first part of this work deals with the inverse problem solution in the X-ray spectroscopy field. An original strategy to solve the inverse problem by using the maximum entropy principle is illustrated. It is built the code UMESTRAT, to apply the described strategy in a semiautomatic way. The application of UMESTRAT is shown with a computational example. The second part of this work deals with the improvement of the X-ray Boltzmann model, by studying two radiative interactions neglected in the current photon models. Firstly it is studied the characteristic line emission due to Compton ionization. It is developed a strategy that allows the evaluation of this contribution for the shells K, L and M of all elements with Z from 11 to 92. It is evaluated the single shell Compton/photoelectric ratio as a function of the primary photon energy. It is derived the energy values at which the Compton interaction becomes the prevailing process to produce ionization for the considered shells. Finally it is introduced a new kernel for the XRF from Compton ionization. In a second place it is characterized the bremsstrahlung radiative contribution due the secondary electrons. The bremsstrahlung radiation is characterized in terms of space, angle and energy, for all elements whit Z=1-92 in the energy range 1–150 keV by using the Monte Carlo code PENELOPE. It is demonstrated that bremsstrahlung radiative contribution can be well approximated with an isotropic point photon source. It is created a data library comprising the energetic distributions of bremsstrahlung. It is developed a new bremsstrahlung kernel which allows the introduction of this contribution in the modified Boltzmann equation. An example of application to the simulation of a synchrotron experiment is shown.