970 resultados para Giornalismo,Notizie,Similarità,Python,Argos,SpaCy,Pandas,Scrapy,confronto
Resumo:
Lo studio effettuato verte sulla ricerca delle cave storiche di pietra da taglio in provincia di Bologna, facendo partire la ricerca al 1870 circa, data in cui si hanno le prime notizie cartacee di cave bolognesi. Nella ricerca si è potuto contare sull’aiuto dei Dott. Stefano Segadelli e Maria Tersa De Nardo, geologi della regione Emilia-Romagna, che hanno messo a disposizione la propria conoscenza e le pubblicazioni della regione a questo scopo. Si è scoperto quindi che non esiste in bibliografia la localizzazione di tali cave e si è cercato tramite l’utilizzo del software ArcGIS , di georeferenziarle, correlandole di informazioni raccolte durante la ricerca. A Bologna al momento attuale non esistono cave di pietra da taglio attive, così tutte le fonti che si sono incontrate hanno fornito dati parziali, che uniti hanno permesso di ottenere una panoramica soddisfacente della situazione a inizio secolo scorso. Le fonti studiate sono state, in breve: il catasto cave della regione Emilia-Romagna, gli shape preesistenti della localizzazione delle cave, le pubblicazioni “Uso del Suolo”, oltre ai dati forniti dai vari Uffici Tecnici dei comuni nei quali erano attive le cave. I litotipi cavati in provincia sono quattro: arenaria, calcare, gesso e ofiolite. Per l’ofiolite si tratta di coltivazioni sporadiche e difficilmente ripetibili dato il rischio che può esserci di incontrare l’amianto in queste formazioni; è quindi probabile che non verranno più aperte. Il gesso era una grande risorsa a fine ‘800, con molte cave aperte nella Vena del Gesso. Questa zona è diventata il Parco dei Gessi Bolognesi, lasciando alla cava di Borgo Rivola il compito di provvedere al fabbisogno regionale. Il calcare viene per lo più usato come inerte, ma non mancano esempi di formazioni adatte a essere usate come blocchi. La vera protagonista del panorama bolognese rimane l’arenaria, che venne usata da sempre per costruire paesi e città in provincia. Le cave, molte e di ridotte dimensioni, sono molto spesso difficili da trovare a causa della conseguente rinaturalizzazione. Ci sono possibilità però di vedere riaprire cave di questo materiale a Monte Finocchia, tramite la messa in sicurezza di una frana, e forse anche tramite la volontà di sindaci di comunità montane, sensibili a questo argomento. Per avere una descrizione “viva” della situazione attuale, sono stati intervistati il Dott. Maurizio Aiuola, geologo della Provincia di Bologna, e il Geom. Massimo Romagnoli della Regione Emilia-Romagna, che hanno fornito una panoramica esauriente dei problemi che hanno portato ad avere in regione dei poli unici estrattivi anziché più cave di modeste dimensioni, e delle possibilità future. Le grandi cave sono, da parte della regione, più facilmente controllabili, essendo poche, e più facilmente ripristinabili data la disponibilità economica di chi la gestisce. Uno dei problemi emersi che contrastano l’apertura di aree estrattive minori, inoltre, è la spietata concorrenza dei materiali esteri, che costano, a parità di qualità, circa la metà del materiale italiano. Un esempio di ciò lo si è potuto esaminare nel comune di Sestola (MO), dove, grazie all’aiuto e alle spiegazioni del Geom. Edo Giacomelli si è documentato come il granito e la pietra di Luserna esteri utilizzati rispondano ai requisiti di resistenza e non gelività che un paese sottoposto ai rigori dell’inverno richiede ai lapidei, al contrario di alcune arenarie già in opera provenienti dal comune di Bagno di Romagna. Alla luce di questo esempio si è proceduto a calcolare brevemente l’ LCA di questo commercio, utilizzando con l’aiuto dell’ Ing. Cristian Chiavetta il software SimaPRO, in cui si è ipotizzato il trasporto di 1000 m3 di arenaria da Shanghai (Cina) a Bologna e da Karachi (Pakistan) a Bologna, comparandolo con le emissioni che possono esserci nel trasporto della stessa quantità di materiale dal comune di Monghidoro (BO) al centro di Bologna. Come previsto, il trasporto da paesi lontani comporta un impatto ambientale quasi non comparabile con quello locale, in termini di consumo di risorse organiche e inorganiche e la conseguente emissione di gas serra. Si è ipotizzato allora una riapertura di cave locali a fini non edilizi ma di restauro; esistono infatti molti edifici e monumenti vincolati in provincia, e quando questi devono essere restaurati, dove si sceglie di cavare il materiale necessario e rispondente a quello già in opera? Al riguardo, si è passati attraverso altre due interviste ai Professori Francesco Eleuteri, architetto presso la Soprintendenza dei Beni Culturali a Bologna e Gian Carlo Grillini, geologo-petrografo e esperto di restauro. Ciò che è emerso è che effettivamente non esiste attualmente una panoramica soddisfacente di quello che è il patrimonio lapideo della provincia, mancando, oltre alla georeferenziazione, una caratterizzazione minero-petrografica e fisico-meccanica adeguata a poter descrivere ciò che veniva anticamente cavato; l’ipotesi di riapertura a fini restaurativi potrebbe esserci, ma non sembra essere la maggiore necessità attualmente, in quanto il restauro viene per lo più fatto senza sostituzioni o integrazioni, tranne rari casi; è pur sempre utile avere una carta alla mano che possa correlare l’edificio storico con la zona di estrazione del materiale, quindi entrambi i professori hanno auspicato una prosecuzione della ricerca. Si può concludere dicendo che la ricerca può proseguire con una migliore e più efficace localizzazione delle cave sul terreno, usando anche come fonte il sapere della popolazione locale, e di procedere con una parte pratica che riguardi la caratterizzazione minero-petrografica e fisico-meccanica. L’utilità di questi dati può esserci nel momento in cui si facciano ricerche storiche sui beni artistici presenti a Bologna, e qualora si ipotizzi una riapertura di una zona estrattiva.
Resumo:
I libretti che Pascoli scrisse in forma di abbozzi e che sognò potessero calcare il palcoscenico di un teatro furono davvero un “melodramma senza musica”. In primo luogo, perché non giunsero mai ad essere vestiti di note e ad arrivare in scena; ma anche perché il tentativo di scrivere per il teatro si tinse per Pascoli di toni davvero melodrammatici, nel senso musicale di sconfitta ed annullamento, tanto da fare di quella pagina della sua vita una piccola tragedia lirica, in cui c’erano tante parole e, purtroppo, nessuna musica. Gli abbozzi dei drammi sono abbastanza numerosi; parte di essi è stata pubblicata postuma da Maria Pascoli.1 Il lavoro di pubblicazione è stato poi completato da Antonio De Lorenzi.2 Ho deciso di analizzare solo quattro di questi abbozzi, che io reputo particolarmente significativi per poter cogliere lo sviluppo del pensiero drammatico e della poetica di Pascoli. I drammi che analizzo sono Nell’Anno Mille (con il rifacimento Il ritorno del giullare), Gretchen’s Tochter (con il rifacimento La figlia di Ghita), Elena Azenor la Morta e Aasvero o Caino nel trivio o l’Ebreo Errante. La prima ragione della scelta risiede nel fatto che questi abbozzi presentano una lunghezza più consistente dell’appunto di uno scheletro di dramma registrato su un foglietto e, quindi, si può seguire attraverso di essi il percorso della vicenda, delle dinamiche dei personaggi e dei significati dell’opera. Inoltre, questi drammi mostrano cosa Pascoli intendesse comporre per sollevare le vesti del libretto d’opera e sono funzionali all’esemplificazione delle sue concezioni teoriche sulla musica e il melodramma, idee che egli aveva espresso nelle lettere ad amici e compositori. In questi quattro drammi è possibile cogliere bene le motivazioni della scelta dei soggetti, il loro significato entro la concezione melodrammatica del poeta, il sistema simbolico che soggiace alla creazione delle vicende e dei personaggi e i legami con la poetica pascoliana. Compiere un’analisi di questo tipo significa per me, innanzitutto, risalire alle concezioni melodrammatiche di Pascoli e capire esattamente cosa egli intendesse per dramma musicale e per rinnovamento dello stesso. Pascoli parla di musica e dei suoi tentativi di scrivere per il teatro lirico nelle lettere ai compositori e, sporadicamente, ad alcuni amici (Emma Corcos, Luigi Rasi, Alfredo Caselli). La ricostruzione del pensiero e dell’estetica musicale di Pascoli ha dovuto quindi legarsi a ricerche d’archivio e di materiali inediti o editi solo in parte e, nella maggioranza dei casi, in pubblicazioni locali o piuttosto datate (i primi anni del Novecento). Quindi, anche in presenza della pubblicazione di parte del materiale necessario, quest’ultimo non è certo facilmente e velocemente consultabile e molto spesso è semi sconosciuto. Le lettere di Pascoli a molti compositori sono edite solo parzialmente; spesso, dopo quei primi anni del Novecento, in cui chi le pubblicò poté vederle presso i diretti possessori, se ne sono perse le tracce. Ho cercato di ricostruire il percorso delle lettere di Pascoli a Giacomo Puccini, Riccardo Zandonai, Giovanni Zagari, Alfredo Cuscinà e Guglielmo Felice Damiani. Si tratta sempre di contatti che Pascoli tenne per motivi musicali, legati alla realizzazione dei suoi drammi. O per le perdite prodotte dalla storia (è il 1 Giovanni Pascoli, Nell’Anno Mille. Sue notizie e schemi da altri drammi, a c. di Maria Pascoli, Bologna, Zanichelli, 1924. 2 Giovanni Pascoli, Testi teatrali inediti, a c. di Antonio De Lorenzi, Ravenna, Longo, 1979. caso delle lettere di Pascoli a Zandonai, che andarono disperse durante la seconda guerra mondiale, come ha ricordato la prof.ssa Tarquinia Zandonai, figlia del compositore) o per l’impossibilità di stabilire contatti quando i possessori dei materiali sono privati e, spesso, collezionisti, questa parte delle mie ricerche è stata vana. Mi è stato possibile, però, ritrovare gli interi carteggi di Pascoli e i due Bossi, Marco Enrico e Renzo. Le lettere di Pascoli ai Bossi, di cui do notizie dettagliate nelle pagine relative ai rapporti con i compositori e all’analisi dell’Anno Mille, hanno permesso di cogliere aspetti ulteriori circa il legame forte e meditato che univa il poeta alla musica e al melodramma. Da queste riflessioni è scaturita la prima parte della tesi, Giovanni Pascoli, i musicisti e la musica. I rapporti tra Pascoli e i musicisti sono già noti grazie soprattutto agli studi di De Lorenzi. Ho sentito il bisogno di ripercorrerli e di darne un aggiornamento alla luce proprio dei nuovi materiali emersi, che, quando non sono gli inediti delle lettere di Pascoli ai Bossi, possono essere testi a stampa di scarsa diffusione e quindi poco conosciuti. Il quadro, vista la vastità numerica e la dispersione delle lettere di Pascoli, può subire naturalmente ancora molti aggiornamenti e modifiche. Quello che ho qui voluto fare è stato dare una trattazione storico-biografica, il più possibile completa ed aggiornata, che vedesse i rapporti tra Pascoli e i musicisti nella loro organica articolazione, come premessa per valutare le posizioni del poeta in campo musicale. Le lettere su cui ho lavorato rientrano tutte nel rapporto culturale e professionale di Pascoli con i musicisti e non toccano aspetti privati e puramente biografici della vita del poeta: sono legate al progetto dei drammi teatrali e, per questo, degne di interesse. A volte, nel passato, alcune di queste pagine sono state lette, soprattutto da giornalisti e non da critici letterari, come un breve aneddoto cronachistico da inserire esclusivamente nel quadro dell’insuccesso del Pascoli teatrale o come un piccolo ragguaglio cronologico, utile alla datazione dei drammi. Ricostruire i rapporti con i musicisti equivale nel presente lavoro a capire quanto tenace e meditato fu l’avvicinarsi di Pascoli al mondo del teatro d’opera, quali furono i mezzi da lui perseguiti e le proposte avanzate; sempre ho voluto e cercato di parlare in termini di materiale documentario e archivistico. Da qui il passo ad analizzare le concezioni musicali di Pascoli è stato breve, dato che queste ultime emergono proprio dalle lettere ai musicisti. L’analisi dei rapporti con i compositori e la trattazione del pensiero di Pascoli in materia di musica e melodramma hanno in comune anche il fatto di avvalersi di ricerche collaterali allo studio della letteratura italiana; ricerche che sconfinano, per forza di cose, nella filosofia, estetica e storia della musica. Non sono una musicologa e non è stata mia intenzione affrontare problematiche per le quali non sono provvista di conoscenze approfonditamente adeguate. Comprendere il panorama musicale di quegli anni e i fermenti che si agitavano nel teatro lirico, con esiti vari e contrapposti, era però imprescindibile per procedere in questo cammino. Non sono pertanto entrata negli anfratti della storia della musica e della musicologia, ma ho compiuto un volo in deltaplano sopra quella terra meravigliosa e sconfinata che è l’opera lirica tra Ottocento e Novecento. Molti consigli, per non smarrirmi in questo volo, mi sono venuti da valenti musicologi ed esperti conoscitori della materia, che ho citato nei ringraziamenti e che sempre ricordo con viva gratitudine. Utile per gli studi e fondamentale per questo mio lavoro è stato riunire tutte le dichiarazioni, da me conosciute finora, fornite da Pascoli sulla musica e il melodramma. Ne emerge quella che è la filosofia pascoliana della musica e la base teorica della scrittura dei suoi drammi. Da questo si comprende bene perché Pascoli desiderasse tanto scrivere per il teatro musicale: egli riteneva che questo fosse il genere perfetto, in cui musica e parola si compenetravano. Così, egli era convinto che la sua arte potesse parlare ed arrivare a un pubblico più vasto. Inoltre e soprattutto, egli intese dare, in questo modo, una precisa risposta a un dibattito europeo sul rinnovamento del melodramma, da lui molto sentito. La scrittura teatrale di Pascoli non è tanto un modo per trovare nuove forme espressive, quanto soprattutto un tentativo di dare il suo contributo personale a un nuovo teatro musicale, di cui, a suo dire, l’umanità aveva bisogno. Era quasi un’urgenza impellente. Le risposte che egli trovò sono in linea con svariate concezioni di quegli anni, sviluppate in particolare dalla Scapigliatura. Il fatto poi che il poeta non riuscisse a trovare un compositore disposto a rischiare fino in fondo, seguendolo nelle sue creazioni di drammi tutti interiori, con scarso peso dato all’azione, non significa che egli fosse una voce isolata o bizzarra nel contesto culturale a lui contemporaneo. Si potranno, anche in futuro, affrontare studi sugli elementi di vicinanza tra Pascoli e alcuni compositori o possibili influenze tra sue poesie e libretti d’opera, ma penso non si potrà mai prescindere da cosa egli effettivamente avesse ascoltato e avesse visto rappresentato. Il che, documenti alla mano, non è molto. Solo ciò a cui possiamo effettivamente risalire come dato certo e provato è valido per dire che Pascoli subì il fascino di questa o di quell’opera. Per questo motivo, si trova qui (al termine del secondo capitolo), per la prima volta, un elenco di quali opere siamo certi Pascoli avesse ascoltato o visto: lo studio è stato possibile grazie ai rulli di cartone perforato per il pianoforte Racca di Pascoli, alle testimonianze della sorella Maria circa le opere liriche che il poeta aveva ascoltato a teatro e alle lettere del poeta. Tutto questo è stato utile per l’interpretazione del pensiero musicale di Pascoli e dei suoi drammi. I quattro abbozzi che ho scelto di analizzare mostrano nel concreto come Pascoli pensasse di attuare la sua idea di dramma e sono quindi interpretati attraverso le sue dichiarazioni di carattere musicale. Mi sono inoltre avvalsa degli autografi dei drammi, conservati a Castelvecchio. In questi abbozzi hanno un ruolo rilevante i modelli che Pascoli stesso aveva citato nelle sue lettere ai compositori: Wagner, Dante, Debussy. Soprattutto, Nell’Anno Mille, il dramma medievale sull’ultima notte del Mille, vede la significativa presenza del dantismo pascoliano, come emerge dai lavori di esegesi della Commedia. Da questo non è immune nemmeno Aasvero o Caino nel trivio o l’Ebreo Errante, che è il compimento della figura di Asvero, già apparsa nella poesia di Pascoli e portatrice di un messaggio di rinascita sociale. I due drammi presentano anche una specifica simbologia, connessa alla figura e al ruolo del poeta. Predominano, invece, in Gretchen’s Tochter e in Elena Azenor la Morta le tematiche legate all’archetipo femminile, elemento ambiguo, materno e infero, ma sempre incaricato di tenere vivo il legame con l’aldilà e con quanto non è direttamente visibile e tangibile. Per Gretchen’s Tochter la visione pascoliana del femminile si innesta sulle fonti del dramma: il Faust di Marlowe, il Faust di Goethe e il Mefistofele di Boito. I quattro abbozzi qui analizzati sono la prova di come Pascoli volesse personificare nel teatro musicale i concetti cardine e i temi dominanti della sua poesia, che sarebbero così giunti al grande pubblico e avrebbero avuto il merito di traghettare l’opera italiana verso le novità già percorse da Wagner. Nel 1906 Pascoli aveva chiaramente compreso che i suoi drammi non sarebbero mai arrivati sulle scene. Molti studi e molti spunti poetici realizzati per gli abbozzi gli restavano inutilizzati tra le mani. Ecco, allora, che buona parte di essi veniva fatta confluire nel poema medievale, in cui si cantano la storia e la cultura italiane attraverso la celebrazione di Bologna, città in cui egli era appena rientrato come professore universitario, dopo avervi già trascorso gli anni della giovinezza da studente. Le Canzoni di Re Enzio possono quindi essere lette come il punto di approdo dell’elaborazione teatrale, come il “melodramma senza musica” che dà il titolo a questo lavoro sul pensiero e l’opera del Pascoli teatrale. Già Cesare Garboli aveva collegato il manierismo con cui sono scritte le Canzoni al teatro musicale europeo e soprattutto a Puccini. Alcuni precisi parallelismi testuali e metrici e l’uso di fonti comuni provano che il legame tra l’abbozzo dell’Anno Mille e le Canzoni di Re Enzio è realmente attivo. Le due opere sono avvicinate anche dalla presenza del sostrato dantesco, tenendo presente che Dante era per Pascoli uno dei modelli a cui guardare proprio per creare il nuovo e perfetto dramma musicale. Importantissimo, infine, è il piccolo schema di un dramma su Ruth, che egli tracciò in una lettera della fine del 1906, a Marco Enrico Bossi. La vicinanza di questo dramma e di alcuni degli episodi principali della Canzone del Paradiso è tanto forte ed evidente da rendere questo abbozzo quasi un cartone preparatorio della Canzone stessa. Il Medioevo bolognese, con il suo re prigioniero, la schiava affrancata e ancella del Sole e il giullare che sulla piazza intona la Chanson de Roland, costituisce il ritorno del dramma nella poesia e l’avvento della poesia nel dramma o, meglio, in quel continuo melodramma senza musica che fu il lungo cammino del Pascoli librettista.
Resumo:
La tesi tratta aspetti relativi all'ottimizzazione strutturale. Algoritmi di ottimizzazione scritti in linguaggio di programmazione Python, sia basati sul metodo del simplesso che di tipo gentico, sono stati integrati in ambiente Salome-Meca/CAE ed applicati ad esempi di interesse strutturale.
Resumo:
Il pirofosfato di vanadile VPP è il catalizzatore utilizzato per l’ossidazione di n-butano ad anidride maleica AM. Durante reazione, il VPP subisce delle modifiche strutturali, soprattutto nella parte superficiale, cataliticamente attiva. Queste modifiche sono funzione della composizione della fase gas e delle caratteristiche del catalizzatore, in particolare del rapporto P/V. Mediante prove di reattività in condizioni stazionarie e non-stazionarie, condotte in cella ambientale accoppiata ad uno spettrofotometro Raman, si è arrivati a capire quali fasi e in che condizioni queste si sviluppano sulla superficie del VPP. Si è inoltre capito che la fase selettiva nel prodotto desiderato, AM, è costituita da δ-VOPO4. Non è ancora noto con esattezza perché questo composto offra le prestazioni migliori; si ipotizza che ciò sia dovuto alla capacità di dare luogo a cicli redox tra V5+ e V4+ con cinetiche veloci, grazie al fatto che ha similarità strutturali con il VPP. La formazione di questa fase avviene più facilmente in presenza di un eccesso di P. Oltre al P, un altro fattore che influisce sulle prestazioni catalitiche è la presenza di elementi promotori. Tra questi, il Nb è uno dei più importanti, come dimostato dalle prove di reattività condotte in miscela butano-aria, utilizzando catalizzatori promossi con diversi quantitativi di Nb. In questo modo si è capito che alle basse temperature occorre un catalizzatore con una maggiore quantità di Nb (per esempio, rapporto V/Nb=46) per favorire la formazione della fase δ-VOPO4; mentre alle alte temperature, sono sufficienti piccole quantità di elemento promotore, in quanto indipendentemente dal rapporto P/V la fase predominante è δ-VOPO4. Una quantità elevata di Nb ha implicazioni negative sulla selettività, sia alle alte che alle basse temperature di reazione, perché favorisce la formazione di una superficie catalitica troppo ossidata. L’obiettivo del mio lavoro di tesi è stato quello di dimostrare una correlazione tra l’effetto del Nb e la formazione della fase δ-VOPO4. Per farlo, si è deciso di partire da VOPO4•2H2O (VPD) promosso con diversi quantitativi di Nb. Infatti, com’era già stato dimostrato in precedenza, il VPD che si forma in ambiente di reazione per ossidazione superficiale del VPP dà luogo a disidratazione a δ-VOPO4. Le trasformazioni del VPD promosso con Nb sono state monitorate utilizzando la spettroscopia Raman. Le prove condotte hanno confermato che l’addizione di Nb al VPP favorisce la formazione del composto desiderato; tuttavia, la medesima trasformazione non è stata osservata partendo dal composto VPD contenente Nb.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
La ricerca riguarda il rapporto fra il diritto di cronaca e i diritti degli individui che vengono coinvolti dalla diffusione dell’informazione sui mezzi di comunicazione, con particolare riferimento al settore audiovisivo. La cronaca, rientrando fra le manifestazioni del pensiero (art. 21 Cost.), costituisce un diritto di libertà e, come tale, non può essere in alcun modo vincolata in funzione di uno scopo sociale. Tuttavia dall’esercizio di essa discende il risultato (non scopo!) vantaggioso per la collettività e per la vita dello Stato democratico. L’ordinamento cerca quindi un punto di equilibrio fra la cronaca e gli altri valori della persona confliggenti e di pari rango; ciò avviene attraverso il bilanciamento in concreto operato dalla giurisprudenza (secondo i principi della sentenza del decalogo) e attraverso la disciplina dei mezzi, al fine di garantire il “diritto ad essere informati” espresso dall’art.10 della CEDU. La disciplina dei mezzi si giustifica in ragione della capacità di influenzare il pubblico e della capacità pervasiva di essi, in particolare del mezzo televisivo che, nonostante l’espansione di internet, conserva ad oggi il primato. Per quanto riguarda gli strumenti di tutela previsti per le ipotesi di lesioni derivanti dalla informazione, ci si sofferma sulla rettifica.(art.32, dlgs 177/2005). Viene effettuato un raffronto con l’analoga figura prevista nella stampa (legge 47/1948), riscontrando che nell’audiovisivo lo strumento è applicabile solo in caso di notizie oggettivamente false che abbiano leso gli interessi morali del soggetto, escludendo la valutazione soggettiva del richiedente, prevista invece per la stampa. Viene ricercata la ratio della differenziazione normativa dei due settori, anche attraverso l’analisi dei provvedimenti dell’AGCOM. In ragione dell’obiettivo di garantire l’obiettività e il pluralismo informativo perseguito dal legislatore attraverso la disciplina dell’audiovisivo, la rettifica, dalla duplice valenza, vede qui prevalere l’aspetto di tutela dell’oggettività notiziale, rispetto alla tutela dell’individuo, realizzata di riflesso, col ripristino della verità.
Resumo:
The main scope of my PhD is the reconstruction of the large-scale bivalve phylogeny on the basis of four mitochondrial genes, with samples taken from all major groups of the class. To my knowledge, it is the first attempt of such a breadth in Bivalvia. I decided to focus on both ribosomal and protein coding DNA sequences (two ribosomal encoding genes -12s and 16s -, and two protein coding ones - cytochrome c oxidase I and cytochrome b), since either bibliography and my preliminary results confirmed the importance of combined gene signals in improving evolutionary pathways of the group. Moreover, I wanted to propose a methodological pipeline that proved to be useful to obtain robust results in bivalves phylogeny. Actually, best-performing taxon sampling and alignment strategies were tested, and several data partitioning and molecular evolution models were analyzed, thus demonstrating the importance of molding and implementing non-trivial evolutionary models. In the line of a more rigorous approach to data analysis, I also proposed a new method to assess taxon sampling, by developing Clarke and Warwick statistics: taxon sampling is a major concern in phylogenetic studies, and incomplete, biased, or improper taxon assemblies can lead to misleading results in reconstructing evolutionary trees. Theoretical methods are already available to optimize taxon choice in phylogenetic analyses, but most involve some knowledge about genetic relationships of the group of interest, or even a well-established phylogeny itself; these data are not always available in general phylogenetic applications. The method I proposed measures the "phylogenetic representativeness" of a given sample or set of samples and it is based entirely on the pre-existing available taxonomy of the ingroup, which is commonly known to investigators. Moreover, it also accounts for instability and discordance in taxonomies. A Python-based script suite, called PhyRe, has been developed to implement all analyses.
Resumo:
La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.
Resumo:
Ormai siamo bombardati da notizie non rassicuranti. Telegiornali, quotidiani,periodici, per gran parte, non sono altro che una elencazione di furti, rapine,omocidi,pestaggi, stupri... Verrebbe quasi voglia di spegnere tutti gli apparecchi,non comperare più la stampa, e rinchiudersi in un totale e dorato isolamento. Ma ciò non è possibile perchè basta stare fra la gente ed inevitabilmente si viene contagiati da un senso di instabilità, a maggior ragione in quanto donna e giovane, che ti spinge a pensare a come mettere a disposizione della sicurezza i tuoi saperi. Da ciò è nata la riflessione su come è possibile dare un contributo per garantire maggiore sicurezza alle donne ed in particolare alle ragazze nei momenti in cui frequentano luoghi di aggregazione giovanili ed anche quando sono sole, tramite l'ideazione di un apposito dispositivo di sicurezza personale.
Resumo:
Synthetic Biology is a relatively new discipline, born at the beginning of the New Millennium, that brings the typical engineering approach (abstraction, modularity and standardization) to biotechnology. These principles aim to tame the extreme complexity of the various components and aid the construction of artificial biological systems with specific functions, usually by means of synthetic genetic circuits implemented in bacteria or simple eukaryotes like yeast. The cell becomes a programmable machine and its low-level programming language is made of strings of DNA. This work was performed in collaboration with researchers of the Department of Electrical Engineering of the University of Washington in Seattle and also with a student of the Corso di Laurea Magistrale in Ingegneria Biomedica at the University of Bologna: Marilisa Cortesi. During the collaboration I contributed to a Synthetic Biology project already started in the Klavins Laboratory. In particular, I modeled and subsequently simulated a synthetic genetic circuit that was ideated for the implementation of a multicelled behavior in a growing bacterial microcolony. In the first chapter the foundations of molecular biology are introduced: structure of the nucleic acids, transcription, translation and methods to regulate gene expression. An introduction to Synthetic Biology completes the section. In the second chapter is described the synthetic genetic circuit that was conceived to make spontaneously emerge, from an isogenic microcolony of bacteria, two different groups of cells, termed leaders and followers. The circuit exploits the intrinsic stochasticity of gene expression and intercellular communication via small molecules to break the symmetry in the phenotype of the microcolony. The four modules of the circuit (coin flipper, sender, receiver and follower) and their interactions are then illustrated. In the third chapter is derived the mathematical representation of the various components of the circuit and the several simplifying assumptions are made explicit. Transcription and translation are modeled as a single step and gene expression is function of the intracellular concentration of the various transcription factors that act on the different promoters of the circuit. A list of the various parameters and a justification for their value closes the chapter. In the fourth chapter are described the main characteristics of the gro simulation environment, developed by the Self Organizing Systems Laboratory of the University of Washington. Then, a sensitivity analysis performed to pinpoint the desirable characteristics of the various genetic components is detailed. The sensitivity analysis makes use of a cost function that is based on the fraction of cells in each one of the different possible states at the end of the simulation and the wanted outcome. Thanks to a particular kind of scatter plot, the parameters are ranked. Starting from an initial condition in which all the parameters assume their nominal value, the ranking suggest which parameter to tune in order to reach the goal. Obtaining a microcolony in which almost all the cells are in the follower state and only a few in the leader state seems to be the most difficult task. A small number of leader cells struggle to produce enough signal to turn the rest of the microcolony in the follower state. It is possible to obtain a microcolony in which the majority of cells are followers by increasing as much as possible the production of signal. Reaching the goal of a microcolony that is split in half between leaders and followers is comparatively easy. The best strategy seems to be increasing slightly the production of the enzyme. To end up with a majority of leaders, instead, it is advisable to increase the basal expression of the coin flipper module. At the end of the chapter, a possible future application of the leader election circuit, the spontaneous formation of spatial patterns in a microcolony, is modeled with the finite state machine formalism. The gro simulations provide insights into the genetic components that are needed to implement the behavior. In particular, since both the examples of pattern formation rely on a local version of Leader Election, a short-range communication system is essential. Moreover, new synthetic components that allow to reliably downregulate the growth rate in specific cells without side effects need to be developed. In the appendix are listed the gro code utilized to simulate the model of the circuit, a script in the Python programming language that was used to split the simulations on a Linux cluster and the Matlab code developed to analyze the data.
Resumo:
Diego e José de Figueroa y Córdoba furono due fratelli drammaturghi, attivi nella seconda metà del XVII secolo, che praticarono assiduamente la scrittura in collaborazione. Nel tentativo di rivalutare questi autori ingiustamente dimenticati dalla critica odierna, il presente lavoro si propone di offrire uno studio introduttivo alle figure e al teatro dei due fratelli. Nella prima parte, si offre un profilo biografico dei fratelli Figueroa, riunendo le seppur scarse notizie che possediamo sulla loro vita, in modo da inquadrarne le personalità all’interno degli ambienti letterari dell’epoca. Ci si concentra, poi, sul corpus, proponendo una panoramica delle commedie scritte da Diego e José, dando di ciascuna una breve sinossi e un rapido inquadramento all’interno dei generi tipici del teatro aureo, e segnalando gli eventuali problemi di attribuzione. Si accenna, infine, alla collaborazione dei fratelli nella scrittura di molte delle loro commedie, avanzando alcune ipotesi sulla tecnica compositiva. La seconda parte è costituita da un repertorio bibliografico del teatro “maggiore” dei due fratelli, in cui si descrivono analiticamente tutti gli esemplari conosciuti delle comedias dei Figueroa. Ogni descrizione si completa con una lista delle biblioteche in cui l’esemplare è conservato, lista compilata attraverso la consultazione di cataloghi, cartacei e on-line, delle principali biblioteche con fondi di teatro spagnolo del Siglo de Oro. Infine, la terza parte è dedicata all’edizione critica di una delle commedie scritte in collaborazione da Diego e José: Mentir y mudarse a un tiempo, condotta usando come testo base un manoscritto probabilmente autografo. L’edizione si completa di un apparato critico, con analisi dei testimoni, stemma codicum e registro delle varianti. Precede l’edizione uno studio generale introduttivo all’opera.
Resumo:
La produzione di materie plastiche da fonti rinnovabili è oggi uno dei principali obiettivi della chimica dei polimeri. Anche se i materiali termoplastici da fonte “bio” sono stati già ampiamente studiati, non si può affermare lo stesso per i termoidurenti. Le resine epossidiche sono ampiamente usate come rivestimenti, adesivi e materiali strutturali grazie alle loro eccezionali proprietà meccaniche e alla buona resistenza al calore. Nonostante ciò, la ricerca svolta in questo campo su tali materiali è molto limitata e la loro produzione deriva ancora dalla reazione tra epicloridrina, cancerogena, e bisfenolo A, sospettato di avere effetti sul sistema ormonale. Per questo, la possibilità di trovare un sostituto per il bisfenolo A è un punto cruciale della chimica per dare una risposta eco-sostenibile alla domanda dei consumatori. L’acido difenolo è stato identificato come un buon canditato per la sostituzione del bisfenolo A, grazie alla similarità delle loro strutture. Dal momento che esso deriva dalla reazione tra acido levulinico, derivante da biomassa e fenolo, è possibile considerarlo un reagente di origine bio. Lo scopo di questo lavoro è quello di sostituire il fenolo con composti fenolici di origine naturale come m-cresolo, guaiacolo, catecolo e resorcinolo. Le molecole risultanti saranno confrontate con il bisfenolo A per ciò che concerne la possibilità di formare i rispettivi glicidil eteri tramite reazione con epicloridrina. Questo permetterebbe la formazione di un pre-polimero epossidico proveniente da fonte rinnovabile in un prossimo futuro.
Resumo:
I temi della ricerca riguardano il rapporto fra avvento del web e la modificazione dei processi di formazione di identità personale e sociale, della percezione dello spazio e del tempo, del prosumerismo digitale e delle varie forme di partecipazione ed associazione. Centrale è stata l’analisi del rapporto fra il Web 2.0 e la trasformazione delle forme di comunicazione a vari livelli, sia personali che sociali. Partendo da una analisi dei contesti socio-economici globali che hanno trasformato la società moderna nella società informazionale, è stato impostato un percorso di ricerca che approfondisse gli attuali criteri di strutturazione della propria identità, alla luce dell’avvento dei social network e delle reti virtuali di comunicazione come strumento preferenziale di socializzazione. La realtà delle reti sociali è stata analizzata in un’ottica di aggregazione spontanea mirata tanto alla comunicazione quanto alla tutela dei consumatori, e le trasformazioni portate dal Web 2.0 sono state la chiave di lettura per ridefinire i parametri della partecipazione dal basso generata dalla rete. Per comprendere la portata di tali trasformazioni nel contesto italiano è stato impostato un paragone tra l’uso del web negli Stati Uniti e in Italia, avendo le recente campagne elettorali dimostrato l’importanza del web nella partecipazione politica bottom-up; il percorso di ricerca ha dunque affrontato una comparazione di due casi, quello italiano e quello statunitense, finalizzato a comprendere l’attuale ruolo dell’utente nelle dinamiche di comunicazione mediatica. Per focalizzare al meglio le trasformazioni sociali generate dalla partecipazione on line è stato infine analizzato il caso del citizen journalism, per misurare, attraverso la metodologia dell’etnografia digitale, l’entità delle trasformazioni in corso. Il portale di giornalismo partecipativo YouReporter è stato il contesto privilegiato dove poter verificare le ipotesi iniziali circa le dinamiche di partecipazione, e il supporto di programmi di elaborazione statistica netnografica ha permesso di destrutturare al meglio tali dinamiche.
Resumo:
I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.