915 resultados para strutture fragili, joint, sequenza di deformazione, fronte reattivo, diffusione, avvezione
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.
Resumo:
La fibrillazione atriale è l'aritmia maggiormente riscontrata nella pratica clinica. Nonostante l'ablazione transcatetere presenti risultati migliori rispetto alla terapia farmacologica, non è ancora chiaro se sia utile l'aggiunta di ulteriori lesioni in atrio, oltre a quelle delle vene polmonari, in maniera tale da aumentare la percentuale di successo della procedura. Infatti, poiché i meccanismi che portano all'insorgere dell'aritmia e in particolare che la sostengono ancora oggi non sono ben chiari, si sono sviluppate diverse teorie, tra cui quella dei Rotori, che consistono in pattern di stabile rotazione e diffusione intorno al loro punto di origine (pivot) e che si pensa possano essere i responsabili del sostentamento della fibrillazione atriale. Questo elaborato ha l'obiettivo di realizzare un sistema di analisi dei dati elettroanatomici con lo scopo di studiare l'attività elettrica dell'atrio, rivolgendo particolare attenzione all'individuazione di rotori.
Resumo:
La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.
Resumo:
La tesi rappresenta un intervento architettonico e urbano sull’area destinata al “Central Park”, che si inserisce nel contesto del Masterplan di Jesolo di Kenzo Tange del 1997. Un’analisi delle dinamiche storiche, dello sviluppo della città balneare, dei punti di forza e delle criticità territoriali, ha portato alla definizione dell’area di progetto e delle intenzioni progettuali, sia a scala urbana, sia a scala architettonica. Il progetto si basa sulla creazione di un grande parco centrale che funga da luogo di svago e relax, ma anche da sito privilegiato per lo studio della natura del territorio. All’interno di un sistema di fasce, che scandisce l’intero intervento, è stato progettato un giardino botanico che lega tra loro i quattro edifici destinati allo studio e alla cultura: il museo di storia naturale, la biblioteca, la sala conferenze e i laboratori didattici per bambini. Le architetture sono disposte secondo un sistema lineare che crea una sequenza di spazi chiusi e aperti. La progettazione degli edifici si articola su uno punto di partenza comune, identificato nell’isolato quadrato e nel tipo a corte. Seguendo un principio di trasformazione sperimentato da Oswald Mathias Ungers, ogni architettura ha successivamente raggiunto il proprio sviluppo e le proprie caratteristiche spaziali e volumetriche.
Resumo:
Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.
Resumo:
La gestione del traffico è una delle principali problematiche delle città moderne, e porta alla definizione di nuove sfide per quanto riguarda l’ottimizzazione del flusso veicolare. Il controllo semaforico è uno degli elementi fondamentali per ottimizzare la gestione del traffico. Attualmente la rilevazione del traffico viene effettuata tramite sensori, tra i quali vengono maggiormente utilizzate le spire magnetiche, la cui installazione e gestione implica costi elevati. In questo contesto, il progetto europeo COLOMBO si pone come obiettivo l’ideazione di nuovi sistemi di regolazione semaforica in grado di rilevare il traffico veicolare mediante sensori più economici da installare e mantenere, e capaci, sulla base di tali rilevazioni, di auto organizzarsi, traendo ispirazione dal campo dell’intelligenza artificiale noto come swarm intelligence. Alla base di questa auto organizzazione semaforica di COLOMBO vi sono due diversi livelli di politiche: macroscopico e microscopico. Nel primo caso le politiche macroscopiche, utilizzando il feromone come astrazione dell’attuale livello del traffico, scelgono la politica di gestione in base alla quantità di feromone presente nelle corsie di entrata e di uscita. Per quanto riguarda invece le politiche microscopiche, il loro compito è quello di deci- dere la durata dei periodi di rosso o verde modificando una sequenza di fasi, chiamata in COLOMBO catena. Le catene possono essere scelte dal sistema in base al valore corrente della soglia di desiderabilità e ad ogni catena corrisponde una soglia di desiderabilità. Lo scopo di questo elaborato è quello di suggerire metodi alternativi all’attuale conteggio di questa soglia di desiderabilità in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Ogni algoritmo complesso ha bisogno di essere ottimizzato per migliorarne le performance. Anche in questo caso, gli algoritmi proposti hanno subito un processo di parameter tuning per ottimizzarne le prestazioni in scenari di bassa presenza di dispositivi per la rilevazione dei veicoli. Sulla base del lavoro di parameter tuning, infine, sono state eseguite delle simulazioni per valutare quale degli approcci suggeriti sia il migliore.
Resumo:
Il collasso di diverse colonne, caratterizzate da danneggiamenti simili, quali ampie fessure fortemente inclinate ad entrambe le estremità dell’elemento, lo schiacciamento del calcestruzzo e l’instabilità dei ferri longitudinali, ha portato ad interrogarsi riguardo gli effetti dell’interazione tra lo sforzo normale, il taglio ed il momento flettente. Lo studio è iniziato con una ricerca bibliografica che ha evidenziato una sostanziale carenza nella trattazione dell’argomento. Il problema è stato approcciato attraverso una ricerca di formule della scienza delle costruzioni, allo scopo di mettere in relazione lo sforzo assiale, il taglio ed il momento; la ricerca si è principalmente concentrata sulla teoria di Mohr. In un primo momento è stata considerata l’interazione tra solo due componenti di sollecitazione: sforzo assiale e taglio. L’analisi ha condotto alla costruzione di un dominio elastico di taglio e sforzo assiale che, confrontato con il dominio della Modified Compression Field Theory, trovata tramite ricerca bibliografica, ha permesso di concludere che i risultati sono assolutamente paragonabili. L’analisi si è poi orientata verso l’interazione tra sforzo assiale, taglio e momento flettente. Imponendo due criteri di rottura, il raggiungimento della resistenza a trazione ed a compressione del calcestruzzo, inserendo le componenti di sollecitazione tramite le formule di Navier e Jourawsky, sono state definite due formule che mettono in relazione le tre azioni e che, implementate nel software Matlab, hanno permesso la costruzione di un dominio tridimensionale. In questo caso non è stato possibile confrontare i risultati, non avendo la ricerca bibliografica mostrato niente di paragonabile. Lo studio si è poi concentrato sullo sviluppo di una procedura che tenta di analizzare il comportamento di una sezione sottoposta a sforzo normale, taglio e momento: è stato sviluppato un modello a fibre della sezione nel tentativo di condurre un calcolo non lineare, corrispondente ad una sequenza di analisi lineari. La procedura è stata applicata a casi reali di crollo, confermando l’avvenimento dei collassi.
Resumo:
Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.
Resumo:
In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.
Resumo:
L’estrema importanza degli aspetti neurologici che riguardano la vita dell’uomo, unitamente all’elevato grado di invalidità che le malattie del sistema nervoso sono in grado di provocare, ha portato nel corso del tempo gli studiosi a sviluppare metodologie di intervento sempre più accurate e specifiche nel tentativo di far fronte a queste complesse situazioni. Il sempre più frequente ricorso alle cure farmacologiche e alla psicoterapia ha saputo ben presto però sollevare numerose perplessità in merito all’efficacia di tali approcci. È a partire da questi presupposti che è stato possibile portare avanti nuovi studi sulla tDCS, un particolare tipo di apparecchiatura biomedicale basata sul concetto di elettrostimolazione cerebrale. Questo lavoro si propone di descrivere la capacità della tDCS di intervenire direttamente sui meccanismi che comunemente si verificano all’interno del cervello umano tramite il rilascio di corrente, nonché i numerosi miglioramenti che sono stati rilevati in seguito al suo utilizzo su soggetti umani. Si propone inoltre di mettere in evidenza le grandi potenzialità che essa è in grado di manifestare relativamente ai processi cognitivi, partendo dagli aspetti che riguardano il linguaggio, passando attraverso quelli propri della memoria e della conoscenza, fino ad arrivare a rivestire un ruolo di primo piano anche all’interno delle sfaccettature tipiche degli stati umorali.
Resumo:
Scopo. La risonanza magnetica (RM) in diffusione (Diffusion Weighted imaging DWI) permette di ottenere dati quantitativi sul movimento dei protoni liberi in acqua mediante la valutazione di alcuni parametri tra cui il coefficiente di diffusione apparente (Apparent Diffusion Coefficient ADC). Questo parametro potrebbe essere usato per differenziare i diversi tipi di tessuti (cisti di diverso tipo, parenchima sano, parenchima non più funzionante, …) e stabilire il danno renale. Lo scopo del presente lavoro è quello di valutare la correlazione tra il valore di ADC e il tessuto renale al fine di verificare la potenziale capacità di questo parametro di offrire informazioni funzionali e poter predire l’insorgenza di cisti e quindi l’aumento di volume del rene. Materiali e Metodi. 11 pazienti di cui 2 donne e 9 uomini (età compresa tra i 55 e i 75 anni) sono stati sottoposti a esame RM con sistema ad alto campo 1,5T. Tutti i pazienti erano affetti da malattia policistica. Il protocollo prevedeva l’utilizzo di una sequenza SE-EPI pesata in diffusione, le immagini sono state acquisite per diversi valori di b-value (500 s/mm², 700 s/mm², 900 s/mm², e 1500 s/mm²). Risultati. Osservando i valori di ADC (coefficiente di diffusione apparente) ottenuti per diversi valori di b e in due differenti regioni del rene, corrispondenti a cisti e parenchima, si sono riscontrati valori diversi . Indipendentemente dal b-value, le cisti hanno un valore di ADC minore rispetto al valore di ADC delle zone parenchimali. Al crescere del b-value, tali valori diventano più piccoli. Conclusioni. La DWI permette di ottenere valori di ADC in grado di discriminare tessuti.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
L'incisore Giovanni Volpato (1735 ca.-1803), allievo di Francesco Bartolozzi a Venezia e trasferitosi nel 1770 a Roma era un incisore che serviva due campi tra di loro molto diversi – da una parte era un'abile e fertile incisore di un genere di stampe che attingeva al genere popolare e al paesaggio di gusto veneziano ma la sua attività maggiormente notata si riferiva al repertorio classico di tradizione romano – riproducendo le opere di Raffaello, Michelangelo, degli Carracci e della loro scuola. La maggior fama del Volpato deriva soprattutto dalle 46 tavole che trasse dalle Logge di Raffaello pubblicate tra 1776 e 1777 delle quali esistono anche esemplari colorati a mano e che hanno profondamente influenzato il gusto della decorazione degli interni in tutta l'Europa oltre il 1800. Alessandro Verri nel 1776 scrisse a suo fratello Pietro a proposito di questa pubblicazione: "Dopo che si sono stampate in Roma le Loggie del Vaticano tutto ha cambiato di gusto. Le carrozze, i muri, gli intagli, le argenterie hanno preso gli ornamenti di quel fonte perenne di ogni varietà." La collaborazione con Gavin Hamilton per la Scholae Italia Picturae e le riproduzioni della Galleria Farnese e della Cappella Sistina come anche del Museo Pio Clementino e delle statue antiche in un repertorio per artisti rivelano il suo interesse per la formazione artistica. In un certo senso si può dire che Volpato era la contropparte di Piranesi e che ambedue effettuavano una precisa e ben meditata divisione dei compiti e di generi e interessi che comunque era al servizio del pubblico turistico che in numero crescente prendeva Roma come meta di viaggi e d'istruzione culturale e si serviva delle incisioni di facile portata di mano. L'importanza delle incisioni come merce di facile trasporto e diffusione è stata per la prima volta riconosciuta da Luigi Lanzi quando definì il Settecento "secolo di rame".
Innovative analytical strategies for the development of sensor devices and mass spectrometry methods
Resumo:
Il lavoro presentato in questa tesi di Dottorato è incentrato sullo sviluppo di strategie analitiche innovative basate sulla sensoristica e su tecniche di spettrometria di massa in ambito biologico e della sicurezza alimentare. Il primo capitolo tratta lo studio di aspetti metodologici ed applicativi di procedure sensoristiche per l’identificazione e la determinazione di biomarkers associati alla malattia celiaca. In tale ambito, sono stati sviluppati due immunosensori, uno a trasduzione piezoelettrica e uno a trasduzione amperometrica, per la rivelazione di anticorpi anti-transglutaminasi tissutale associati a questa malattia. L’innovazione di questi dispositivi riguarda l’immobilizzazione dell’enzima tTG nella conformazione aperta (Open-tTG), che è stato dimostrato essere quella principalmente coinvolta nella patogenesi. Sulla base dei risultati ottenuti, entrambi i sistemi sviluppati si sono dimostrati una valida alternativa ai test di screening attualmente in uso per la diagnosi della celiachia. Rimanendo sempre nel contesto della malattia celiaca, ulteriore ricerca oggetto di questa tesi di Dottorato, ha riguardato lo sviluppo di metodi affidabili per il controllo di prodotti “gluten-free”. Il secondo capitolo tratta lo sviluppo di un metodo di spettrometria di massa e di un immunosensore competitivo per la rivelazione di prolammine in alimenti “gluten-free”. E’ stato sviluppato un metodo LC-ESI-MS/MS basato su un’analisi target con modalità di acquisizione del segnale selected reaction monitoring per l’identificazione di glutine in diversi cereali potenzialmente tossici per i celiaci. Inoltre ci si è focalizzati su un immunosensore competitivo per la rivelazione di gliadina, come metodo di screening rapido di farine. Entrambi i sistemi sono stati ottimizzati impiegando miscele di farina di riso addizionata di gliadina, avenine, ordeine e secaline nel caso del sistema LC-MS/MS e con sola gliadina nel caso del sensore. Infine i sistemi analitici sono stati validati analizzando sia materie prime (farine) che alimenti (biscotti, pasta, pane, etc.). L’approccio sviluppato in spettrometria di massa apre la strada alla possibilità di sviluppare un test di screening multiplo per la valutazione della sicurezza di prodotti dichiarati “gluten-free”, mentre ulteriori studi dovranno essere svolti per ricercare condizioni di estrazione compatibili con l’immunosaggio competitivo, per ora applicabile solo all’analisi di farine estratte con etanolo. Terzo capitolo di questa tesi riguarda lo sviluppo di nuovi metodi per la rivelazione di HPV, Chlamydia e Gonorrhoeae in fluidi biologici. Si è scelto un substrato costituito da strips di carta in quanto possono costituire una valida piattaforma di rivelazione, offrendo vantaggi grazie al basso costo, alla possibilità di generare dispositivi portatili e di poter visualizzare il risultato visivamente senza la necessità di strumentazioni. La metodologia sviluppata è molto semplice, non prevede l’uso di strumentazione complessa e si basa sull’uso della isothermal rolling-circle amplification per l’amplificazione del target. Inoltre, di fondamentale importanza, è l’utilizzo di nanoparticelle colorate che, essendo state funzionalizzate con una sequenza di DNA complementare al target amplificato derivante dalla RCA, ne permettono la rivelazione a occhio nudo mediante l’uso di filtri di carta. Queste strips sono state testate su campioni reali permettendo una discriminazione tra campioni positivi e negativi in tempi rapidi (10-15 minuti), aprendo una nuova via verso nuovi test altamente competitivi con quelli attualmente sul mercato.