904 resultados para FRP, Cerniera plastica, Analisi Non Lineari, SeismoStruct
Resumo:
Analisi del sistema di gestione dell'azienda Mase Generators S.p.A. In particolare dopo aver introdotto l'importanza di un accurato flusso delle informazioni, si sono raccolti alcuni dati relativi alla produzione dell'impresa studiata per poter fare alcune considerazioni su valore di magazzino, livello di servizio ed ore di produzione caricate sulla commessa, al fine di individuare i punti di forza e le criticità del metodo adottato. Non esiste infatti un sistema di gestione che sappia rispondere a tutte le necesseità, ma una volta determinate le strategie esse devono essere ottimizzate e coerenti con gli obiettivi dell'azienda.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.
Resumo:
Le prove di fatica a flessione rotante su componenti in scala reale sono molto dispendiosi. Il metodo più veloce ed economico per ottenere gli stessi risultati è quello di operare su un provino in scala. Dal momento che non esiste nessun campione standardizzato è stato creato un provino ad-hoc e sono state eseguite le prove. Inoltre è stato creato un modello tridimensionale in grado di valutare le sollecitazioni. I due risultati sono stati comparati e i provini utilizzati per le prove sono stati attentamente analizzati.
Resumo:
L'infezione da HIV-1 resta ancora oggi una delle principali problematiche nell'ambito della sanità mondiale, con circa 35 milioni di individui infetti in tutto il mondo. L'introduzione della terapia antiretrovirale combinata (cART) ha drasticamente modificato l’evoluzione di questa infezione, che da patologia a sviluppo terminale dopo alcuni anni dalla trasmissione, è diventata una patologia cronica con una lunga aspettativa di vita per i pazienti. Tuttavia, la cART non è in grado di eradicare l’infezione e nei pazienti HIV-infetti trattati è possibile notare un aumento della comparsa di comorbidità, tra le quali le più frequentemente riscontrate sono lesioni al sistema nervoso centrale, ai reni, al tessuto osseo, al fegato e al sistema cardiovascolare. I danni al sistema cardiocircolatorio derivano da una serie di concause virologiche, comportamentali, ambientali e farmacologiche che alterano la parete vascolare, il metabolismo dei lipidi e la regolazione della coagulazione, inducendo la formazione di lesioni strutturali di tipo aterosclerotico che sono alla base dell’aumentata incidenza di infarti, ictus e alterazioni del circolo osservabili nei pazienti HIV-positivi. Dalla recente letteratura è emerso come l’omeostasi del tessuto endoteliale sia regolata anche a livello delle cellule staminali mesenchimali (MSC) presenti nella parete vascolare. Per questo abbiamo voluto analizzare possibili effetti dell’infezione di HIV, delle sue proteine e di alcune molecole antiretrovirali sulla vitalità e sul differenziamento delle MSC purificate dalla parete arteriosa umana. I risultati ottenuti indicano come l’infezione da HIV e l’azione delle proteine gp120 e Tat attivino il meccanismo di apoptosi nelle MSC e una profonda alterazione nel differenziamento verso la filiera adipocitaria e verso quella endoteliale. Inoltre, alcune molecole ad azione antiretrovirale (in particolare specifici inibitori della proteasi virale) sono in grado bloccare il differenziamento delle MSC verso le cellule endoteliali. Dall’insieme di queste osservazioni emergono nuovi meccanismi patogenetici correlati al danno cardiovascolare riscontrato nei pazienti HIV-positivi.
Resumo:
Il Tumore a Cellule Giganti dell’osso (TCG) è una rara neoplasia che rappresenta il 5% dei tumori di natura ossea; sebbene venga considerato un tumore a decorso benigno può manifestare caratteri di aggressività locale dando origine a recidive locali nel 10-25% dei casi, e nel 2-4% dei casi metastatizza a livello polmonare. In questo studio è stata valutata l’espressione dei miRNA mediante miRNA microarray in 10 pazienti affetti da TCG, 5 con metastasi e 5 liberi da malattia; sono stati riscontrati miRNA differenzialmente espressi tra i 2 gruppi di pazienti e la successiva validazione mediante Real Time PCR ha confermato una differenza significativa per il miR-136 (p=0.04). Mediante analisi bioinformatica con il software TargetScan abbiamo identificato RANK e NF1B come target del miR-136 e ne abbiamo studiato l’espressione mediante Real Time PCR su una più ampia casistica di pazienti affetti da TCG, metastatico e non, evidenziando una maggior espressione di NF1B nel gruppo di pazienti metastatici, mentre RANK non ha dimostrato una differenza significativa. L’analisi di Western Blot ha rilevato una maggiore espressione di entrambe le proteine nei pazienti metastatici rispetto ai non metastatici. Successivamente è stato condotto uno studio di immunoistochimica su TMA di 163 campioni di pazienti affetti da TCG a diverso decorso clinico che ha dimostrato una maggiore e significativa espressione di entrambe i target nei pazienti con metastasi rispetto ai non metastatici; le analisi di popolazione mediante Kaplan-Meier hanno confermato la correlazione tra over-espressione di RANK, NF1B e ricaduta con metastasi (p=0.001 e p<0.0005 rispettivamente). Lo studio di immunoistochimica è stato ampliato alle proteine maggiormente coinvolte nell’osteolisi che risultano avere un significato prognostico; tuttavia mediante analisi di ROC, la co-over-espressione di RANK, RANKL e NF1B rappresenta il migliore modello per predire la comparsa di metastasi (AUC=0.782, p<0.0005).
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
Obiettivo principale della ricerca è quello di aggiungere un tassello mancante, attraverso una nuova chiave di lettura, alla complessa attività artistico-teorica dell’artista futurista Enrico Prampolini (1894-1956). Questa tesi, oltre a riordinare e raccogliere tutto ciò che riguarda l’architettura e il rapporto di quest’ultima con le arti nell'opera di Prampolini, coglie l’occasione per puntualizzarne aspetti ancora poco esplorati, grazie anche all'analisi inedita dei documenti originali dell'artista conservati presso il CRDAV del Museo d’arte contemporanea di Roma. Partendo dall'analisi dei rapporti dell’artista modenese con le avanguardie straniere, la ricerca prosegue con la presa in esame dei manifesti, degli scritti e degli articoli noti e inediti legati alla teoria architettonica nella produzione dell’artista modenese. Il nucleo centrale della ricerca è costituito dagli elementi inediti emersi presso l’Archivio Prampolini consistenti in relazioni di progetti architettonici per un Piano urbanistico del Centro Alberghiero di Castel Fusano (1938) e per due alberghi nel centro di Roma (1938-1939). La seconda parte della ricerca si concentra sull'analisi del rapporto tra arte e architettura nel Futurismo e sul fondamentale contributo dato in tal senso da Prampolini, in particolare attraverso la “plastica murale”, come completamento dell’architettura futurista e fascista e la concezione dell’Arte Polimaterica. Nell'ultima parte della ricerca si affronta infine l'analisi del rapporto tra arte e architettura gestito in ambito istituzionale in Italia tra le due guerre, con l’emanazione, nel 1942, della legge detta “del 2%”. Aspetto finora inedito delle vicende legate alla “legge del 2%” è l'emergere del ruolo centrale di Prampolini nel contribuire al dibattito che portò alla sua approvazione, e non secondariamente nella ricerca di migliori condizioni economiche e maggiori occasioni di lavoro per gli artisti. La figura di Enrico Prampolini emerge dunque, da questa ricerca, come un nodo fondamentale per comprendere alcuni degli aspetti ancora inesplorati della cultura artistico-architettonica italiana degli anni Venti-Quaranta.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
OBIETTIVO: sintetizzare le evidenze disponibili sulla relazione tra i fattori di rischio (personali e lavorativi) e l’insorgenza della Sindrome del Tunnel Carpale (STC). METODI: è stata condotta una revisione sistematica della letteratura su database elettronici considerando gli studi caso-controllo e di coorte. Abbiamo valutato la qualità del reporting degli studi con la checklist STROBE. Le stime studio-specifiche sono state espresse come OR (IC95%) e combinate con una meta-analisi condotta con un modello a effetti casuali. La presenza di eventuali bias di pubblicazione è stata valutata osservando l’asimmetria del funnel plot e con il test di Egger. RISULTATI: Sono stati selezionati 29 studi di cui 19 inseriti nella meta-analisi: 13 studi caso-controllo e 6 di coorte. La meta-analisi ha mostrato un aumento significativo di casi di STC tra i soggetti obesi sia negli studi caso-controllo [OR 2,4 (1,9-3,1); I(2)=70,7%] che in quelli di coorte [OR 2,0 (1,6-2,7); I(2)=0%]. L'eterogeneità totale era significativa (I(2)=59,6%). Risultati simili si sono ottenuti per i diabetici e soggetti affetti da malattie della tiroide. L’esposizione al fumo non era associata alla STC sia negli studi caso-controllo [OR 0,7 (0,4-1,1); I(2)=83,2%] che di coorte [OR 0,8 (0,6-1,2); I(2)=45,8%]. A causa delle molteplici modalità di valutazione non è stato possibile calcolare una stima combinata delle esposizioni professionali con tecniche meta-analitiche. Dalla revisione, è risultato che STC è associata con: esposizione a vibrazioni, movimenti ripetitivi e posture incongrue di mano-polso. CONCLUSIONI: I risultati della revisione sistematica confermano le evidenze dell'esistenza di un'associazione tra fattori di rischio personali e STC. Nonostante la diversa qualità dei dati sull'esposizione e le differenze degli effetti dei disegni di studio, i nostri risultati indicano elementi di prova sufficienti di un legame tra fattori di rischio professionali e STC. La misurazione dell'esposizione soprattutto per i fattori di rischio professionali, è un obiettivo necessario per studi futuri.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Nella seguente tesi sono stati affrontati differenti protocolli di purificazione di componenti della DNA polimerasi III di Escherichia coli, previamente sovraespressi nel microrganismo. A distanza di oltre 20 anni dall’identificazione della DNA polimerasi III quale enzima responsabile della replicazione del genoma di E. coli, sono stati fatti progressi riguardo la sua conoscenza. Tuttavia molti sono gli aspetti rimasti incogniti riguardo al meccanismo d’azione dell’enzima, così come il ruolo svolto dalle sue subunità e parte della loro struttura. Al fine di migliorare la comprensione di questo enzima, è necessario insistere sulla diffrattometria di raggi X, per la quale è indispensabile l’isolamento di cristalli delle proteine. Si intuisce la necessità di sviluppare metodi appropriati che consentano di ottenere una resa il più possibile elevata dei suoi componenti. Una metodica generale per la sovraespressione del core catalitico e della singola subunità α, deputata all’attività polimerasica a carico di entrambi i filamenti di DNA, era già stata perfezionata presso il laboratorio ospitante. Con il presente lavoro sono stati sperimentati alcuni procedimenti, volti ad aumentare la resa di purificazione, adottando differenti soluzioni. In primo luogo, si è cercato di recuperare le proteine contenute nel flow through eluito da una colonna cromatografica Q-Sepharose, alla quale non erano riuscite a legarsi durante il primo stadio di purificazione. Inoltre, sono stati sperimentati metodi alternativi di lisi cellulare di estrazione delle proteine. In sintesi, il contenuto della tesi potrebbe agevolare la valutazione di diverse strategie per incrementare la resa di purificazione della subunità α e del core polimerasico della DNA Polimerasi III di E. coli.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Riconoscendo l’importanza delle traduzioni all’interno della cosiddetta repubblica democratica dell’infanzia, il lavoro analizza le prime traduzioni tedesche e italiane del classico della letteratura per l’infanzia I ragazzi della Via Pál di Ferenc Molnár, al fine di metterne in luce i processi non solo prettamente traduttivi, ma anche più ampiamente culturali, che hanno influenzato la prima ricezione del romanzo in due contesti linguistici spesso legati per tradizione storico-letteraria alla letteratura ungherese. Rispettando la descrizione ormai comunemente accettata della letteratura per ragazzi come luogo di interazione tra più sistemi – principalmente quello letterario, quello pedagogico e quello sociale –, il lavoro ricostruisce innanzitutto le dinamiche proprie dei periodi storici di interesse, focalizzando l’attenzione sulla discussione circa l’educazione patriottica e militare del bambino. In relazione a questa tematica si approfondisce l’aspetto della “leggerezza” nell’opera di Molnár, ricostruendo attraverso le recensioni del tempo la prima ricezione del romanzo in Ungheria e presentando i temi del patriottismo e del gioco alla guerra in dialogo con le caratteristiche linguistico-formali del romanzo. I risultati raggiunti – una relativizzazione dell’intento prettamente pedagogico a vantaggio di una visione critica della società e del militarismo a tutti i costi – vengono messi alla prova delle traduzioni. L’analisi critica si basa su un esame degli elementi paratestuali, sull’individuazione di processi di neutralizzazione dell’alterità culturale e infine sull’esame delle isotopie del “gioco alla guerra” e dei “simboli della patria”. Si mostra come, pur senza un intervento censorio o manipolazioni sensibili al testo, molte traduzioni italiane accentuano l’aspetto patriottico e militaresco in chiave pedagogica. Soprattutto in Italia, il romanzo viene uniformato così al contesto letterario ed educativo dell’epoca, mentre in area tedesca la ricezione nell’ambito della letteratura per ragazzi sembra aprire al genere del romanzo delle bande.
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.