81 resultados para Memoria semantica, Reti neurali, Regola di hebb, Memorie associative

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è l’analisi delle modalità di rappresentazione del trauma nel romanzo del Novecento e, in particolare, nelle opere di Samuel Beckett, Georges Perec e Agota Kristof. Fondamento dello studio sarà una disamina dei procedimenti linguistici e narrativi di rappresentazione del trauma nelle prose degli autori citati, al fine tracciare le linee di un’estetica in grado di descrivere le caratteristiche peculiari delle narrazioni in cui la dimensione antinarrativa della memoria traumatica assume il ruolo di principio estetico guida. L’analisi si soffermerà sulla cruciale relazione esistente, in tutti e tre gli autori, tra rappresentazione del trauma e sviluppo di strategie narrativi definibili come “denegative”. L’analisi dei testi letterari è condotta sulla base del corpus critico dei Trauma Studies, dell’ermeneutica della narrazione di stampo ricœuriano e della teoria del linguaggio psicoanalitica e affiancata, ove possibile, da uno studio filologico-genetico dei materiali d’autore. Alla luce di tali premesse, intendo rivalutare il carattere rappresentativo e testimoniale della letteratura del secolo scorso, in contrasto con la consuetudine a vedere nel romanzo novecentesco il trionfo dell’antimimesi e il declino del racconto. Dal momento che le narrazioni traumatiche si costruiscono intorno e attraverso i vuoti di linguaggio, la tesi è che siano proprio questi vuoti linguistici e narrativi (amnesie, acronie, afasie, lapsus, omissioni e mancanze ancora più sofisticate come nel caso di Perec) a rappresentare, in modo mimetico, la realtà apparentemente inaccessibile del trauma. Si tenterà di dimostrare come questi nuovi canoni di rappresentazione non denuncino l’impossibilità del racconto, bensì una sfida al silenzio, celata in più sottili e complesse convenzioni narrative, le quali mantengono un rapporto di filiazione indiretto − per una via che potremmo definire denegativa − con quelle del romanzo tradizionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto della presente dissertazione è inerente aspetti affidabilistici e diagnostici dei componenti delle reti elettriche. Sono stati condotti studi sul ruolo svolto dai parametri presenti nei modelli affidabilistici utilizzati in presenza di regimi distorti. I risultati ottenuti nel corso della ricerca, indicano chiaramente come anche il fattore efficace Krms e, soprattutto, il fattore di forma, Kf, sotto certe condizioni, possano avere effetti considerevoli sulla degradazione degli isolanti (a volte con contributi perfino maggiori di quello dato dal ben noto fattore di picco, Kp, considerato predominante). Viene inoltre riportata un’indagine sviluppata sui principali Dispositivi Automatizzati per il Controllo degli Isolamenti (AIMS), attualmente disponibili sul mercato. Sono illustrati e discussi innovativi modelli di rischio integrati, sviluppati per integrare informazioni fornite dall’analisi affidabilistica tradizionale con misure di proprietà diagnostiche, acquisite grazie ad un monitoraggio costante dei componenti in servizio. L’impiego di tali modelli permetterebbe di ottenere una manutenzione di tipo affidabilistico-diagnostico, basata sull’effettiva condizione del componente in esame (manutenzione tipo CBM), piuttosto che su scadenze temporali fissate a priori (manutenzione di tipo TBM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partendo dal problema del rapporto fra la ricostruzione di un evento storico e lo statuto del testo che lo ricostruisce, la tesi si concentra nella lettura di opere riguardanti la Seconda guerra mondiale. Sono in questo senso cruciali due opere autobiografiche trattate nella prima parte del lavoro, Rue Labat Rue Ordener di Sarah Kofman (1993) e Kindheitsmuster di Christa Wolf (1976). In questi due testi la dottoranda prova a recuperare da una parte la rimemorazione letteraria di due esperienze infantili della guerra insieme opposte e complementari dal punto di vista del posizionamento della testimonianza. Il testo della Wolf ibrida la narrazione finzionale e la memoria dell’evento storico vissuto nel ricordo di una bambina tedesca, il testo della Kofman recupera in una maniera quasi psicanalitica la memoria di una bambina ebrea vittima inconsapevole e quesi incosciente della Shoah. Di fronte a due topoi apparentemente già piu volte ripercorsi nella letteratura critica del trauma postconflitto, la tesi in questione cerca di individuare il costituirsi quasi inevitabile di un soggetto identitario che osserva, vive e successivamente recupera e racconta il trauma. Se alcune posizioni della moderna storiografia e della contemporanea riflessione sulla scrittura storiografica, sottolineano la forza e l’importanza dell’elemento narrativo all’interno della ricostruzione storica e dell’analisi dei documenti, questa tesi sembra indicare una via possibile di studio per la letteratura comparata. Una via, cioè, che non si soffermi sui fattori e sui criteri veridizionali del testo, criteri e fattori che devono restare oggetto di studio per gli storici , ma che piuttosto indaghi sul nesso ineludibile e fondativo che la scrittura stessa svela e pone in essere: il trauma, l’irrompere dell’evento storico nell’individuo diventa elemento costitutivo della propria identità, elemento al quale è difficile dare una posizione stabile ma che allo stesso tempo non si può evitare di raccontare, di mettere in discorso. Nella narrazione letteraria di eventi storici esiste dunque un surplus di senso che sta tutto nella costituzione di una posizione dalla quale raccontare, di un punto di vista. Il punto di vista (come ci ricorda De Certeau ne Les lieux des autres in quel saggio dedicato ai cannibali di Montaigne,che viene poi ripreso senza essere mai citato da Ginzburg ne Il filo e le tracce) non è mai dato a priori nel discorso, è il risultato di un conflitto e di una lotta. Il testo che rende conto e recupera la memoria di un passato storico, in particolare di un passato storico conflittuale, di una guerra, di una violenza, per quanto presenti un punto di vista preciso e posizionato, per quanto possa apparire un frutto di determinate strategie testuali e di determinati obiettivi pragmatici, è pur sempre una narrazione il cui soggetto porta in sé, identitariamente, le ferite e i traumi dell’evento storico. Nei casi di Wolf e Kofman abbiamo quindi un rispecchiamento reciproco che fra il tentativo di una ricostruzione della memoria infantile e il recupero dell’elemento intersoggettivo e storico si apre alla scrittura e alla narrazione. La posizione del soggetto che ha vissuto l’irrompere del dramma storico nel discorso lo costituisce e lo delega a essere colui che parla e colui che vede. In un qualche modo la Storia per quanto possa essere creatrice di eventi e per quanto possa trasformare l’esistenza del soggetto non è essa stessa percepibile finché non si posiziona attraverso il soggetto trasformato e modificato all’interno del discorso. In questa continua ricerca di un equilibrio possibile fra realtà e discorso si pone il problema dell’essere soggetto in mezzo ad altri soggetti. E questo in un duplice aspetto: nell’aspetto della rappresentazione dell’altro, cioè nel problema di come la memoria riorganizzi e ricrei i soggetti in gioco nell’evento storico; e poi nella rappresentazione di se stesso per gli altri, nella rappresentazione cioe del punto di vista. Se nel romanzo autobiografico di Kofman tutta la storia veniva a ricondursi alla narrazione privata del soggetto che, come in una seduta psicanalitica recupera e insieme si libera del proprio conflitto interiore, della propria memoria offesa; se nel romanzo di Wolf si cercava un equilibrio fra una soggettivita infantile ormai distante in terza persona e una soggettività rammemorante che prendeva posizione nel romanzo nella seconda persona; la cerniera sia epistemologica sia narratologica fra la prima e la seconda parte della tesi pare essere Elsa Morante e il suo romanzo La Storia. L’opera della Morante sembra infatti farsi pieno carico della responsabilità di non poter piu ridurre la narrazione del trauma alla semplice presa in carico del soggetto autobiografico. Il soggetto che, per dirla ancora con De Certeau, può esprimere il proprio punto di vista perche in qualche modo si è salvato dalla temperie della storia, non si pone nel discorso come punto di inizio e di fine di qualsiasi percezione del trauma, ma si incarna in uno o più personaggi che in un qualche modo rappresentino l’irrapresentabile e l’irrapresentato. La storia diventa quindi elemento non costitutivo di un'identità capace di ri-raccontarsi o almeno non solo, diventa fattore costitutivo di un’identità capace di raccontare l’altro, anzi gli altri, tutti coloro che il conflitto, la violenza ha in un qualche modo cancellato. Così accade all’infanzia tradita e offesa del piccolo Useppe, che viene soffocato non solo nella sua possibilita di svilupparsi, di essere punto di vista del discorso, ma anche nella possibilita di essere osservatore vivo dell’evento; cosi accade a Ida, donna e madre, che la Storia lentamente e inesorabilmente spersonalizza riducendola a essere soggetto passivo e vittima degli eventi. Ecco quindi che la strada aperta dalla Morante permette alla memoria di proiettarsi in una narrazione comune e di condividere e suddividere la posizione centrale del soggetto in una costellazione differente di soggetti. A questo punto si apre, attraverso le tecniche della storia orale e la loro narrativizzazione, una strategia di recupero della memoria evidenziata nell’ultima parte della tesi. La strada intrapresa da autori come i Wu Ming e come Andrea Levy ne è un esempio. Sganciati per evidenti ragioni biografiche e anagrafiche (sono tutti nati ben dopo la fine del secondo conflitto mondiale) da qualsiasi tentazione autobiografica, i primi intraprendono una vera e propria ridistribuzione dei punti di vista sulla storia. In romanzi come Manituana si viene a perdere, almeno a un primo e forse piu superficiale livello, qualsiasi imposizione fissa del punto di vista. Una molteplicità di soggetti si prende carico di raccontare la storia da differenti posizioni, ma la apparente molteplicità degli sguardi non si riduce a una frammentazione dell’etica del racconto quanto piuttosto alla volontà di fare emergere tra gli altri anche il punto di vista dello sconfitto e dell’inerme. Al passato oscuro della violenza storica si contrappone in un qualche modo la messa in discorso del soggetto che cerca attraverso la costituzione non solo di un soggetto ma di una pluralitàdi voci , di ritrovare un’ armonia, di riassimilare la propria memoria condividendola nel testo letterario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del Progetto Extreme Energy Events (EEE) e` di studiare raggi cosmici di energia estrema, eventi molto rari ma ricchi di informazioni. La grande difficolta` nell'affrontare la fisica dei raggi cosmici di altissima energia risiede nel flusso estremamente basso con cui tali particelle giungono sulla terra. Si utilizzano infatti reti molto estese di rivelatori: le informazioni che si possono ricavare derivano dalla rivelazione delle particelle secondarie prodotte nello sviluppo di sciami estesi di raggi cosmici primari che interagiscono con l'atmosfera terrestre. Il Progetto EEE prevede di dislocare su tutto il territorio italiano un array di telescopi (costituiti da Multi Gap Resistive Plate Chambers) per raggi cosmici secondari. Il lavoro presentato riguarda la simulazione Monte Carlo degli sciami e lo studio delle loro caratteristiche, la simulazione delle prestazioni di griglie di rivelazione differenti ed infine l'analisi dei primi dati raccolti nei telescopi di Bologna, con il conseguente confronto con la simulazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi intitolata "Dalla «postmémoire» alla scrittura dell’oblio nell’opera di Sylvie Germain" si pone l’obbiettivo di analizzare l’opera della scrittrice francese contemporanea Sylvie Germain alla luce di alcune elaborazioni teoriche sulla dialettica memoria/oblio. Basandoci sulle principali teorie-guida relative alla «memoria culturale» teorizzate da Maurice Halbwachs,Pierre Nora,Tzvetan Todorov,Paul Ricoeur e Aleida Assmann,la nostra analisi si è successivamente concentrata sugli studi condotti attorno al concetto di «postmemory» elaborato dalla studiosa americana Marianne Hirsch. Scopo di questa prospettiva critica è quello di leggere l'opera germainiana come espressione di una «affiliative postmemory», risultato della connessione generazionale di coloro che non hanno vissuto direttamente un trauma con la «literal second generation». Attraverso un approccio interdisciplinare che ha coinvolto gli studi sulla memoria culturale in rapporto alla questione del gender, si è inoltre evidenziata la specificità del ruolo rivestito dai personaggi femminili nei romanzi di Germain che assumono un peso determinante nella trasmissione della memoria individuale e collettiva, studio che ci ha permesso di sottolineare la funzione attiva svolta dalle protagoniste delle opere della scrittrice. Nella fase conclusiva sono state esaminate le opere più recenti di Sylvie Germain pubblicate tra il 2008 e il 2011 in cui l’autrice sembra avvertire la necessità di controbilanciare il peso della «troppa memoria» con una giusta dose di oblio. Sono state inoltre affrontate la questione della responsabilità etica e l’idea di debito nei confronti della memoria familiare e collettiva: la scrittura stessa diventa così per Germain lo strumento attraverso il quale l’autrice assume il ruolo di passeuse de mémoire per le generazioni future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza la rappresentazione del maquis nella letteratura spagnola contemporanea, scritti in castigliano e pubblicati dal 1985 ad oggi. La tesi si articola in tre capitoli: il primo presenta a livello teorico la metodologia e gli strumenti utilizzati nello svolgimento dello studio, ed è incentrato innanzitutto sul tentativo di definizione e catalogazione dei romanzi del maquis, con una particolare attenzione alla temperie culturale cui fanno riferimento, presentando le estetiche postmoderna e neomoderna e cercando di situare le opere narrative facenti parte del corpus della ricerca. Nel secondo capitolo è centrale in cambio l’analisi dei rapporti tra Storia e narrazione: oltre a concentrarsi sul dibattito interdisciplinare circa le connessioni tra la Storia e la narrativa, si cerca di dar conto dei riflessi di questa riflessione contemporanea all’interno delle opere facenti parte del corpus. Infine, il terzo capitolo riguarda l’analisi delle metafore animali rintracciabili nei romanzi sul maquis scelti, concentrandosi principalmente su Luna de lobos di Julio Llamazares e La agonía del búho chico di Justo Vila. L’impiego di questa figura retorica, che si ritrova in vari gradi in tutte le opere narrative scelte, risponde tanto ad una ricerca di verosimiglianza quanto alle modalità di rappresentazione della realtà empirica, riportando l’attenzione sui metodi atti alla figurazione e all’accesso alla conoscenza del mondo. La proposta di un cambio di paradigma estetico e narrativo in atto nella letteratura contemporanea spagnola cerca quindi una conferma nel momento dell’analisi, attraverso la quale si cerca di indagare se, e in che misura, il romanzo sul maquis si inserisce nel dibattito letterario odierno, e quanto contribuisce allo sviluppo del medesimo paradigma estetico in via di definizione – quello neomoderno –, cercando una conferma che si basa sulla presenza di quelle tematiche segnalate nel momento della discussione teorica e metodologica come tratti basilari e strutturanti le opere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti transeuropee sono uno dei vettori della competitività, dell’integrazione e dello sviluppo sostenibile dell’Unione. La tesi mette in luce la progressiva affermazione di una coerente politica infrastrutturale europea a carattere strumentale, esaminando tale evoluzione sotto tre profili: normativo, istituzionale e finanziario. In primo luogo, sotto il profilo normativo, la tesi evidenzia, da un lato, la progressiva emancipazione delle istituzioni dell’Unione dall’influenza degli Stati membri nell’esercizio delle proprie competenze in materia di reti transeuropee e, dall’altro, lo sviluppo di relazioni di complementarietà e specialità tra la politica di reti e altre politiche dell’Unione. L’elaborato sottolinea, in secondo luogo, sotto il profilo istituzionale, il ruolo del processo di «integrazione organica» dei regolatori nazionali e del processo di «agenzificazione» nel perseguimento degli obiettivi di interconnessione e accesso alle reti nazionali. La tesi osserva, infine, sotto il profilo finanziario, l’accresciuta importanza del sostegno finanziario dell’UE alla costituzione delle reti, che si è accompagnata al parziale superamento dei limiti derivanti dal diritto dell’UE alla politiche di spesa pubblica infrastrutturale degli Stati membri. Da un lato rispetto al diritto della concorrenza e, in particolare, al divieto di aiuti di stato, grazie al rapporto funzionale tra reti e prestazione di servizi di interesse economico generale, e dall’altro lato riguardo ai vincoli di bilancio, attraverso un’interpretazione evolutiva della cd. investment clause del Patto di stabilità e crescita. La tesi, in conclusione, rileva gli sviluppi decisivi della politica di reti europea, ma sottolinea il ruolo che gli Stati membri sono destinati a continuare ad esercitare nel suo sviluppo. Da questi ultimi, infatti, dipende la concreta attuazione di tale politica, ma anche il definitivo superamento, in occasione di una prossima revisione dei Trattati, dei retaggi intergovernativi che continuano a caratterizzare il diritto primario in materia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The need for high bandwidth, due to the explosion of new multi\-media-oriented IP-based services, as well as increasing broadband access requirements is leading to the need of flexible and highly reconfigurable optical networks. While transmission bandwidth does not represent a limit due to the huge bandwidth provided by optical fibers and Dense Wavelength Division Multiplexing (DWDM) technology, the electronic switching nodes in the core of the network represent the bottleneck in terms of speed and capacity for the overall network. For this reason DWDM technology must be exploited not only for data transport but also for switching operations. In this Ph.D. thesis solutions for photonic packet switches, a flexible alternative with respect to circuit-switched optical networks are proposed. In particular solutions based on devices and components that are expected to mature in the near future are proposed, with the aim to limit the employment of complex components. The work presented here is the result of part of the research activities performed by the Networks Research Group at the Department of Electronics, Computer Science and Systems (DEIS) of the University of Bologna, Italy. In particular, the work on optical packet switching has been carried on within three relevant research projects: the e-Photon/ONe and e-Photon/ONe+ projects, funded by the European Union in the Sixth Framework Programme, and the national project OSATE funded by the Italian Ministry of Education, University and Scientific Research. The rest of the work is organized as follows. Chapter 1 gives a brief introduction to network context and contention resolution in photonic packet switches. Chapter 2 presents different strategies for contention resolution in wavelength domain. Chapter 3 illustrates a possible implementation of one of the schemes proposed in chapter 2. Then, chapter 4 presents multi-fiber switches, which employ jointly wavelength and space domains to solve contention. Chapter 5 shows buffered switches, to solve contention in time domain besides wavelength domain. Finally chapter 6 presents a cost model to compare different switch architectures in terms of cost.