370 resultados para monitoraggio sorgenti interferenza idrogeologica galleria
Resumo:
La maggior parte dei corpi celesti che popolano l’universo emette “luce”. Ciò significa che essi sono visibili dai nostri occhi quando li alziamo sul cielo notturno o al limite, se troppo lontani, da potenti telescopi ottici. Questa luminosità ha nella maggior parte dei casi un’origine termonucleare, dovuta cioè alla presenza di sorgenti come le stelle, in cui l’elevata temperatura interna legata alle reazioni di fusione che le mantengono in vita produce una radiazione di corpo nero in banda ottica. Tuttavia, dato che la parte visibile costituisce solo una minuscola porzione dell’intero spettro elettromagnetico, andando ad indagare emissioni a differenti frequenze come il radio, l’infrarosso, l’ultravioletto, X e gamma, si rileva la presenza un’altra categoria di oggetti dalle caratteristiche peculiari che li rendono un affascinante campo di studio per molteplici ragioni: i Nuclei Galattici Attivi (AGN) (figura 1). Sono abbastanza rari (costituiscono meno dell’1% del totale rispetto alle normali galassie) e dalla vita breve, spesso molto lontani e potenti, ferventi di un’intensa attività che sembra crescere col redshift; si ipotizza perciò che siano giovani e che ci aprano una finestra sul momento successivo al collasso iniziale proprio della vita di ogni galassia, rivelandosi fondamentali per elaborare eventuali teorie cosmologiche. Inoltre, sebbene spesso ospiti di galassie visibili anche in ottico, i loro meccanismi di emissione e gli speciali comportamenti necessitano di analisi e spiegazioni totalmente differenti. Particolare è anche il metodo di rilevamento: per coprire infatti queste determinate frequenze è stata sviluppata una tecnica innovativa capace di dare ottimi risultati, perfino migliori di quelli dei telescopi tradizionali, l’interferometria radio. La tesi si divide in due parti: la prima delinea un ritratto degli AGN, la seconda analizza il flusso proveniente dalla radiogalassia 3C 84 a 15.4 e 43 GHz e ipotizza un possibile sito di origine dell’aumento di brillanza osservato.
Resumo:
L’elaborato descrive la progettazione di un prototipo per misure spettroscopiche di desorbimento termico e i primi esperimenti effettuati con esso. Vengono descritti in dettaglio gli strumenti peculiari di tale apparato, come lo spettrometro di massa quadrupolo e la pompa a diffusione e le parti costruite ad hoc per tale dispositivo, ovvero la struttura del portacampione e del sostegno al forno utilizzato per il riscaldamento delle sostanze analizza- te. Particolare importanza `e posta nella descrizione della parte software del prototipo, che utilizza la tecnologia del DDE (Dynamic Data Exchange) per comunicare i dati tra due programmi diversi operanti su una medesima piattaforma; viene quindi illustrato il funzionamento del software comunicante direttamente con lo spettrometro e del programma LabView creato per il monitoraggio e il salvataggio dei dati raccolti da tale apparato. L’ultima parte dell’elaborato riguarda i primi esperimenti di spettroscopia di desorbimento termico effettuati, comprendendo sia quelli preliminari per testare la qualità del prototipo sia quelli da cui `e possibile ottenere una curva di desorbimento termico per i vari gas analizzati in camera, come ad esempio idrogeno.
Resumo:
Il paesaggio lagunare porta i segni di importanti interventi antropici che si sono susseguiti dall’epoca romana ad oggi, a partire dalle prima centuriazioni, per seguire con le grandi opere di bonifica e deviazione dei fiumi sino alla rapida trasformazione di Jesolo Lido, da colonia elioterapica degli anni ‘30 a località turistica internazionale. L’insediamento nella zona “Parco Pineta” si propone come costruzione di un paesaggio artificiale, funzionale all’uso particolare del tempo libero in un grande spazio aperto, strettamente connesso alla città e aderente a luoghi precisamente connotati quali sono la pineta, il borgo, il canale e le residenze turistiche progettate dall’architetto Gonçalo Byrne. Le scale di progetto sono due, quella territoriale e quella architettonica. Il progetto mira a connettere i centri di Jesolo e Cortellazzo con un sistema di percorsi ciclabili. Il fiume Piave consente di combinare il turismo sostenibile con la possibilità di ripercorrere i luoghi delle memorie storiche legate al primo conflitto bellico mondiale. L’intenzione è quella di rendere Cortellazzo parte integrante di un itinerario storico, artistico e naturalistico. Il Parco Pineta si configurerebbe così come il punto di partenza di un percorso che risalendo il fiume collega il piccolo borgo di Cortellazzo con San Donà e con il suo già noto Parco della Scultura in Architettura. Alla scala territoriale è l’architettura del paesaggio, il segno materiale, l’elemento dominante e caratterizzante il progetto. L’articolazione spaziale dell’intervento è costruita seguendo la geometria dettata dall’organizzazione fondiaria e la griglia della città di fondazione, con l’intento chiaro di costruire un “fatto territoriale” riconoscibile. L’unità generale è affidata al quadrato della Grande Pianta entro il quale vengono definite le altre unità spaziali. L’insieme propone uno schema organizzativo semplice che, scavalcando il Canale Cavetta, ricongiunge le parti avulse del territorio. Il grande quadrato consente di frazionare gli spazi definendo sistemi integrati diversamente utilizzabili cosicché ogni parte dell’area di progetto abbia una sua connotazione e un suo interesse d’uso. In questo modo i vincoli morfologici dell’area permettono di costruire ambienti specificamente indirizzati non solo funzionalmente ma soprattutto nelle loro fattezze architettoniche e paesistiche. Oggetto di approfondimento della tesi è stato il dispositivo della piattaforma legata all’interpretazione del sistema delle terre alte e terre basse centrale nel progetto di Byrne. Sulla sommità della piattaforma poggiano gli edifici dell’auditorium e della galleria espositiva.
Resumo:
In questa tesi si studiano gli aspetti dell’emissione non termica degli ammassi di galassie e le proprietà in confronto all’emissione termica dell’ICM, in particolare verranno messe a confronto le proprietà nella banda radio ed X. Si considerano in particolare le radiosorgenti diffuse: gli aloni, i relitti, i mini aloni e si mostra come l’andamento dello spettro radio degli aloni sia ripido alle alte frequenze; inoltre si nota che merger (scontri) recenti tra ammassi, sembrano fornire energia agli aloni ed ai relitti e dunque come conseguenza di ciò le proprietà nella banda radio e nei raggi X negli ammassi siano collegate tra di loro. I risultati sperimentali consentono di ipotizzare che gli ammassi con aloni e relitti siano caratterizzati da una forte attività dinamica che è collegata ai processi di merging. Si può vedere che i mini aloni sono le uniche sorgenti diffuse che non sono associate a merger tra ammassi. Si discute degli elettroni relativistici negli aloni radio, nei relitti radio e nei mini aloni radio. Trattando i campi magnetici degli ammassi, la loro origine e la polarizzazione che essi producono si evince che misurando la percentuale di polarizzazione si può stimare il grado d’ordine del campo magnetico in una radiosorgente. Se l’ICM in un ammasso possiede un forte effetto sulle strutture delle radiogalassie, la probabilità di formare radiosorgenti sembra non essere influenzata dall’ambiente dell’ammasso, ma soltanto dai merger degli ammassi. Nel secondo capitolo in particolare, si approfondisce invece la radiazione di sincrotrone.
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
Le prove di fatica a flessione rotante su componenti in scala reale sono molto dispendiosi. Il metodo più veloce ed economico per ottenere gli stessi risultati è quello di operare su un provino in scala. Dal momento che non esiste nessun campione standardizzato è stato creato un provino ad-hoc e sono state eseguite le prove. Inoltre è stato creato un modello tridimensionale in grado di valutare le sollecitazioni. I due risultati sono stati comparati e i provini utilizzati per le prove sono stati attentamente analizzati.
Resumo:
La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
L'applicazione Android sviluppata permette ad uno specifico hotel di potersi presentare e di offrire diversi servizi online quali l'itinerario per raggiungerlo, una galleria di immagini e il poter prenotare una offerta.
Resumo:
Lo scenario di unificazione degli AGN caratterizza le molteplici proprietà di questi oggetti in termini del differente angolo di vista rispetto ad un sistema costituito da un toro oscurante, un disco di accrescimento che alimenta il SMBH e nubi di gas che circondano il buco nero. Circa il 10% degli AGN sono forti sorgenti radio. Questi oggetti, detti AGN Radio-Loud, sono caratterizzati da getti relativistici emessi trasversalmente rispetto al disco di accrescimento e comprendono le radio galassie e i blazar. In accordo con il modello unificato, le radio galassie (MAGN), rappresentano i blazar visti a grandi angoli di inclinazione del getto rispetto alla linea di vista. Nei blazar la radiazione emessa dai getti su scale del pc viene amplificata da effetti relativistici dando origine a spettri piatti con elevata polarizzazione ottica e forte variabilità. Questi oggetti rappresentano le sorgenti più brillanti identificate nel cielo gamma extragalattico. I MAGN, a differenza dei blazar, mostrano spettri ripidi e strutture radio quasi simmetriche. In queste sorgenti, l'effetto del Doppler boosting è meno evidente a causa del grande angolo di inclinazione del getto. In soli 3 mesi di osservazioni scientifiche effettuate con il satellite Fermi è stata rivelata emissione gamma da parte delle radio galassie NGC 1275 e Cen A. I MAGN rappresentano una nuova classe di sorgenti gamma. Tuttavia, il numero di radio galassie rivelate è sorprendentemente piccolo ponendo degli interrogativi sui meccanismi di emissione alle alte energie di questi oggetti. Nel presente lavoro di tesi, si analizzeranno i dati gamma raccolti dal LAT durante i primi 5 anni di osservazioni scientifiche per un campione di 10 radio galassie più brillanti selezionate dai cataloghi B2 e BCS. L'obiettivo principale sarà migliorare la statistica e cercare di comprendere la natura dell'emissione alle alte energie da parte delle radio galassie.
Resumo:
Gli ultimi anni hanno visto una crescita esponenziale nell’uso dei social media (recensioni, forum, discussioni, blog e social network); le persone e le aziende utilizzano sempre più le informazioni (opinioni e preferenze) pubblicate in questi mezzi per il loro processo decisionale. Tuttavia, il monitoraggio e la ricerca di opinioni sul Web da parte di un utente o azienda risulta essere un problema molto arduo a causa della proliferazione di migliaia di siti; in più ogni sito contiene un enorme volume di testo non sempre decifrabile in maniera ottimale (pensiamo ai lunghi messaggi di forum e blog). Inoltre, è anche noto che l’analisi soggettiva delle informazioni testuali è passibile di notevoli distorsioni, ad esempio, le persone tendono a prestare maggiore attenzione e interesse alle opinioni che risultano coerenti alle proprie attitudini e preferenze. Risulta quindi necessario l’utilizzo di sistemi automatizzati di Opinion Mining, per superare pregiudizi soggettivi e limitazioni mentali, al fine di giungere ad una metodologia di Sentiment Analysis il più possibile oggettiva.
Resumo:
Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.
Resumo:
Uno dei problemi più diffusi, nell'ambito della logistica, è rappresentato dai costi di trasporto. La gestione dei flussi merci, l'approvvigionamento dei clienti, e la relativa pianifcazione della movimentazione dei veicoli, hanno incidenze notevoli sui costi di gestione aziendali, i quali vengono stimati mediamente nel 45% dei costi logistici. A ragione di questo, sono sempre di più le aziende che ricorrono all'impiego di uffici dedicati alla pianifcazione delle consegne e la gestione dei trasporti in generale. Sebbene le voci di bilancio relative al trasporto raggiungano cifre rilevanti, fno al 4% del fatturato annuo, il tema della pianifcazione viene spesso sottovalutato. Infatti la soluzione a problemi di pianifcazione e monitoraggio dei costi, è spesso demandata a procedure manuali senza supporto informatico. Nasce da qui l'esigenza di proporre uno strumento informatico che supporti gli addetti preposti alla pianifcazione, sviluppando un sistema che copra esigenze di pianifcazione dei viaggi, controllo e consuntivazione dei costi di trasporto, e monitoraggio dei mezzi in tempo reale. La proposta di Gesp srl, Geographic Information Systems, azienda italiana che opera da anni nel campo delle applicazioni software geo-spaziali, prende il nome di Nuovo Sistema Trasporti, o più semplicemente, NST. In quest'ambito prende corpo questa tesi, la quale si pone l'obiettivo di illustrare le fasi di nascita, analisi, progettazione e sviluppo di un software generico per il supporto alla logistica. Saranno così analizzati: le problematiche affrontate nella fase di defnizione, e kick-off (avvio), del progetto, il problema del routing, o Vehicle Routing Problem e le tecniche di Ricerca Operativa che vengono applicate per la sua risoluzione; le moderne metodologie di gestione e sviluppo di un software; l'architettura e le tecnologie impiegate per la distribuzione dell'applicativo.
Resumo:
I calibratori di attività sono strumenti fondamentali in medicina nucleare, utilizzati da ogni struttura al fine di quantificare l’attività di radiofarmaco da somministrare al paziente. L'accurata taratura di questi strumenti richiederebbe la disponibilità di sorgenti di riferimento certificate per ciascun radionuclide di interesse; tuttavia vi è una importante serie di casi in cui questo metodo non è praticabile a causa delle caratteristiche del radionuclide, come ad esempio il brevissimo tempo di dimezzamento. Lo scopo di questo studio è stato determinare il fattore di taratura per un radioisotopo PET a brevissimo tempo di dimezzamento, il 11C, per il quale non sono commercialmente reperibili delle sorgenti certificate, eseguendo un’accurata misura dell’efficienza di rivelazione di un moderno rivelatore per spettrometria allo specifico valore di energia di 511 keV dei fotoni di annichilazione. Lo strumento utilizzato è un nuovo rivelatore a CZT (tellururo di cadmio-zinco), il Kromek GR1, un rivelatore compatto che opera a temperatura ambiente, caratterizzato da una interessante risoluzione energetica e da una efficienza di rivelazione contenuta, quest’ultima adeguata per l’analisi di campioni che hanno un’attività relativamente elevata, come di frequente accade nei siti di produzione dei nuclidi radioattivi. Le misure sperimentali sono state eseguite cercando di ottimizzare ogni passaggio al fine di minimizzare le incertezze, in modo da ottenere una stima accurata del fattore di taratura, secondo una modalità tracciabile ad uno standard accreditato NIST e riproducibile per qualunque altro radioisotopo PET. Potranno quindi essere constatati i fattori di taratura noti di altri radionuclidi e successivamente stimati i fattori per radioisotopi sperimentali anche mediante diversi modelli di calibratori.