299 resultados para Gruppi finitamente generati liberi
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
La sezione d'urto differenziale di produzione di coppie t/t viene misurata utilizzando dati raccolti nel 2012 dall'esperimento CMS in collisioni protone-protone con un'energia nel centro di massa di 8 TeV. La misura viene effettuata su eventi che superano una serie di selezioni applicate al fine di migliorare il rapporto segnale/rumore. In particolare, facendo riferimento al canale all-hadronic, viene richiesta la presenza di almeno sei jet nello stato finale del decadimento della coppia t/t di cui almeno due con quark b. Ottenuto un campione di eventi sufficientemente puro, si può procedere con un fit cinematico, che consiste nel minimizzare una funzione chi quadro in cui si considera tra i parametri liberi la massa invariante associata ai quark top; le cui distribuzioni, richiedendo che il chi quadro sia <10, vengono ricostruite per gli eventi candidati, per il segnale, ottenuto mediante eventi simulati, e per il fondo, modellizzato negando la presenza di jet con b-tag nello stato finale del decadimento della coppia t/t. Con le suddette distribuzioni, attraverso un fit di verosimiglianza, si deducono le frazioni di segnale e di fondo presenti negli eventi. È dunque possibile riempire un istogramma di confronto tra gli eventi candidati e la somma di segnale+fondo per la massa invariante associata ai quark top. Considerando l'intervallo di valori nel quale il rapporto segnale/rumore è migliore si possono ottenere istogrammi di confronto simili al precedente anche per la quantità di moto trasversa del quark top e la massa invariante e la rapidità del sistema t/t. Infine, la sezione d'urto differenziale è misurata attraverso le distribuzioni di tali variabili dopo aver sottratto negli eventi il fondo.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
L'obiettivo di questo lavoro è quello di analizzare la potenza emessa da una carica elettrica accelerata. Saranno studiati due casi speciali: accelerazione lineare e accelerazione circolare. Queste sono le configurazioni più frequenti e semplici da realizzare. Il primo passo consiste nel trovare un'espressione per il campo elettrico e il campo magnetico generati dalla carica. Questo sarà reso possibile dallo studio della distribuzione di carica di una sorgente puntiforme e dei potenziali che la descrivono. Nel passo successivo verrà calcolato il vettore di Poynting per una tale carica. Useremo questo risultato per trovare la potenza elettromagnetica irradiata totale integrando su tutte le direzioni di emissione. Nell'ultimo capitolo, infine, faremo uso di tutto ciò che è stato precedentemente trovato per studiare la potenza emessa da cariche negli acceleratori.
Resumo:
I semiconduttori organici sono alla base dell'elettronica organica, un campo di ricerca che negli ultimi anni ha coinvolto diversi gruppi di lavoro, sia a livello accademico che industriale. Diversi studi hanno portato all'idea di impiegare materiali di questo tipo come detector di raggi X, sfruttando la loro flessibilità meccanica, la facile fabbricazione di dispositivi su larga area e tramite tecniche a basso costo (es. stampa a getto di inchiostro) e le basse tensioni operative. In questa tesi in particolare si utilizzeranno degli OFET (Organic Field-Effect Transistor) a questo scopo, dimostrando la possibilità amplificare la sensibilità alla radiazione X e di pilotare le prestazioni del detector mediante l'applicazione della tensione all'elettrodo di gate. Presenteremo quindi uno studio sperimentale atto a caratterizzare elettricamente dei transistor realizzati con differenti semiconduttori organici, prima, durante e dopo l'esposizione a raggi X, in maniera da stimarne la sensibilità, le proprietà di conduzione intrinseche e la resistenza all'invecchiamento.
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
Il tumore non è altro che una massa abnorme di tessuto che cresce in eccesso ed in modo scoordinato rispetto ai tessuti normali, e che persiste in questo stato dopo la cessazione degli stimoli che hanno indotto il processo. Questa patologia può presentarsi all’interno del corpo umano in svariate posizioni e forme; la più diffusa forma di tumore è quello epatico, particolarmente discusso in questo studio. Dato il continuo sviluppo di questa malattia, la ricerca ha richiesto un altrettanto miglioramento della tecnologia per eliminarla. Gli studi hanno portato a sviluppare quello che viene definito “trattamento termico dei tumori”, che consiste nell’applicazione di elevate o basse temperature nella posizione desirata per creare necrosi e quindi l’eliminazione della neoplasia. L’obiettivo di questo lavoro è presentare i diversi trattamenti termici utilizzati nella pratica clinica, i modelli matematici utilizzati dalla tecnologia attuale per predire la distribuzione di temperatura nel tessuto e quindi l’efficacia di una determinata tecnologia; infine verranno presentate le ricerche che si pensa potrebbero migliorare l’efficienza della terapia. Per ogni tecnica sono state presentate le dinamiche di utilizzo, i macchinari, i limiti e i vantaggi che la caratterizzano. Ci si è soffermati anche sulla presentazione dell’equazioni matematiche che regolano gli scambi di calore, nonché sui danni provocati ai tessuti da fattori ipertermici o ipotermici, con un particolare esempio sui fattori ipertermici generati da campi elettromagnetici vicini e lontani. Si è cercato, quindi, di fare un quadro generale di questo trattamento toccando i diversi aspetti che lo distinguono dalle altre terapie.
Resumo:
La tesi si divide in due macroargomenti relativi alla preparazione della geometria per modelli MCNP. Il primo è quello degli errori geometrici che vengono generati quando avviene una conversione da formato CAD a CSG e le loro relazioni con il fenomeno delle lost particles. Il passaggio a CSG tramite software è infatti inevitabile per la costruzione di modelli complessi come quelli che vengono usati per rappresentare i componenti di ITER e può generare zone della geometria che non vengono definite in modo corretto. Tali aree causano la perdita di particelle durante la simulazione Monte Carlo, andando ad intaccare l' integrità statistica della soluzione del trasporto. Per questo motivo è molto importante ridurre questo tipo di errori il più possibile, ed in quest'ottica il lavoro svolto è stato quello di trovare metodi standardizzati per identificare tali errori ed infine stimarne le dimensioni. Se la prima parte della tesi è incentrata sui problemi derivanti dalla modellazione CSG, la seconda invece suggerisce un alternativa ad essa, che è l'uso di Mesh non Strutturate (UM), un approccio che sta alla base di CFD e FEM, ma che risulta innovativo nell'ambito di codici Monte Carlo. In particolare le UM sono state applicate ad una porzione dell' Upper Launcher (un componente di ITER) in modo da validare tale metodologia su modelli nucleari di alta complessità. L'approccio CSG tradizionale e quello con UM sono state confrontati in termini di risorse computazionali richieste, velocità, precisione e accuratezza sia a livello di risultati globali che locali. Da ciò emerge che, nonostante esistano ancora alcuni limiti all'applicazione per le UM dovuti in parte anche alla sua novità, vari vantaggi possono essere attribuiti a questo tipo di approccio, tra cui un workflow più lineare, maggiore accuratezza nei risultati locali, e soprattutto la possibilità futura di usare la stessa mesh per diversi tipi di analisi (come quelle termiche o strutturali).
Resumo:
Il presente elaborato ha avuto lo scopo di valutare l’effetto dell’applicazione delle alte pressioni idrostatiche (HHP) sulla solubilità delle proteine sarcoplasmatiche e totali di tartare di cefalo e mazzancolla, valutandone il cambiamento durante la conservazione refrigerata protratta per 35 giorni o fino al raggiungimento di 7 Log UFC/g di batteri mesofili totali. In seguito allo scongelamento, cefali e mazzancolle sono stati ridotti in frammenti e confezionati sottovuoto. Successivamente, i prodotti confezionati ottenuti da ciascuna delle due materie prime considerate, sono stati suddivisi in quattro gruppi sperimentali: uno non trattato mentre gli altri sottoposti ad HHP alla pressione di 400, 500 e 600 MPa. Trascorsi 1, 6, 9, 14, 21, 28 e 35 giorni dall’applicazione del trattamento è stata determinata la solubilità delle proteine sarcoplasmatiche e totali. L’applicazione delle HHP su tartare di cefalo e mazzancolla consente di allungarne notevolmente la shelf-life microbica, soprattutto con trattamenti a pressioni elevate (600 MPa). Tuttavia, è stato osservato un notevole effetto negativo sulla solubilità delle frazioni sarcoplasmatiche e totali, molto presumibilmente associato ai fenomeni di ossidazione. Dal confronto fra le due matrici considerate (cefalo e mazzancolla), emerge che la solubilità delle proteine sarcoplasmatiche e miofibrillari dei macinati di mazzancolla è meno influenzata dal trattamento con HHP e quindi si adatta meglio all’impiego di questa tecnologia; al contrario i macinati di cefalo hanno presentato una riduzione notevole della funzionalità proteica. In generale, è stato confermato che i prodotti ittici dotati di un tenore di lipidi ed emepigmenti molto ridotto, come i crostacei (es. mazzancolla), sono più adatti ad essere sottoposti a trattamento con le HHP che ne rallenta i fenomeni degradativi durante la successiva fase di conservazione refrigerata.
Resumo:
L’aumento della domanda di energia ha portato a un elevato sfruttamento delle fonti fossili. Per questo motivo si sono cercate risorse di tipo rinnovabili per produrre energia e prodotti chimici. Le biomasse rispettano tali requisiti. Tra gli aspetti più importanti nell’utilizzo di biomasse c’è la possibilità di produrre prodotti chimici, in altre parole molecole piattaforma dalla quale ottenere prodotti con elevato valore aggiunto. Il 5-idrossimetilfurfurale (HMF) presenta dei gruppi funzionali che permettono di ottenere molecole interessanti come l’FDCA, il quale grazie alla struttura simile all’acido terfatlico può essere utilizzato per l’ottenimento di un bio-polimero (PEF). La reazione di ossidazione selettiva tra i vari sistemi catalitici testati, i catalizzatori a base di metalli nobili quali Au e Pd, presentano elevata attività e selettività, ma scarsa produttività ottenibile nei sistemi discontinui rendendo difficile l’applicazione industriale. La messa a punto di membrane ibride polimero-inorganiche per scopi catalitici vengono prodotte inserendo una fase attiva inorganica all’interno della matrice polimerica; una telle tecniche di produzione è l’elettrofilatura. La tecninca consiste nell’applicazione di un campo elettrico che permette di ottenere delle fibre con diametro ub-micrometrico. In questo lavoro si sono preparate delle membrane polimeriche catalitiche mediante elettrofilatura con matrice polimerica a base di polivinil alcol e acidopoliacrilico e un polimero commerciale della DuPont (Hytrel® G4777), contenenti come fase attiva Au e Pd. Queste membrane poi sono state testate per l’ossidazione selettiva del 5-idrossimetilfurfurale (5-HMF) ad acido 2,5 furan-dicarbossilico (FDCA), prima in ossigeno con un reattore batch e successivamente utilizzando acqua ossigenata in un reattore semicontinuo.
Resumo:
Questo lavoro di tesi ha avuto come scopo la preparazione di film dei semiconduttori organici Indaco e Chinacridone con metodi da soluzione, che sono i preferiti per la fabbricazione di dispositivi. Per la caratterizzazione dei film si è utilizzata la microscopia Raman nell’intervallo dei numeri d’onda delle vibrazioni reticolari, per identificare la natura della fase cristallina presente. Indaco e Chinacridone sono pigmenti fortemente insolubili in tutti i solventi organici, a causa della presenza dei forti legami a ponte di idrogeno intermolecolari che ne influenzano notevolmente le proprietà di stato solido. Questo rende difficile l’ottenimento di film omogenei per deposizione diretta di loro soluzioni. Per ovviare al problema, si è utilizzata una strategia di letteratura, che passa attraverso la preparazione di loro derivati solubili, con una reazione di protezione dei gruppi amminici presenti sulle molecole con gruppi termolabili (tBoc). Una volta depositato su substrato, il pigmento originale può essere rigenerato per riscaldamento del film. L’analisi Raman ha permesso di caratterizzare strutturalmente per la prima volta i film preparati con questa procedura. In particolare si è verificato che sui film di Indaco è sempre presente il polimorfo B, in accordo con quanto trovato nei film preparati con metodi di deposizione da vapore. Per quanto riguarda il Chinacridone invece dell’attesa β, la fase ottenuta è la metastabile α’, ottenibile in fase bulk solo in condizioni drastiche. In entrambi in casi si conferma la selettività del substrato verso un polimorfo specifico.
Resumo:
Visto l’attuale fabbisogno di fosforo, è fondamentale, in un’ottica di sostenibilità ambientale, mettere a punto un trattamento che consenta di ottenere un efficiente recupero del fosforo. Il seguente lavoro di tesi si pone come obbiettivo quello di caratterizzare la prestazione di un adsorbente utilizzato in un impianto pilota presso l’università di Cranfield per il recupero del fosforo da acque reflue municipali dopo 2 anni di utilizzo, corrispondenti a 66 cicli di adsorbimento/desorbimento. In particolare sono state confrontate le prestazioni ottenibili dalla resina usata rigenerata con la procedura standard (mediante NaOH 2%) e con una procedura di ricondizionamento mediante un trattamento più forte (mediante NaOH 2% + NaCl 5%) con quelle della resina vergine. Le due tipologie di soluzione rigenerante serviranno a valutare il contributo all’adsorbimento totale delle nanoparticelle di HFO e dei gruppi funzionali presenti sulla resina. I test sono stati condotti sia in soluzioni sintetiche di fosfato (acqua demineralizzata a cui viene aggiunto un determinato quantitativo di sali di fosfato), sia in soluzioni reali (wastewaters, fornite dalla multiutility HERA). Lo studio è stato condotto mediante isoterme di adsorbimento e test in continuo (curve di breakthrough). I risultati ottenuti confermano che la resina, dopo due anni, mantiene ottime prestazioni, molto simili alla vergine. Il materiale ha mostrato una ottima resistenza meccanica, durabilità e facilità di rigenerazione, dimostrandosi un eccellente adsorbente per gli ortofosfati anche alle basse concentrazioni tipiche degli effluenti secondari di scarto. I test in continuo hanno inoltre mostrato come, alle tipiche concentrazioni delle acque reflue, la rigenerazione dei gruppi funzionali della resina mediante sodio cloruro non porti ad un significativo miglioramento delle proprietà adsorbenti. Dai dati ottenuti si può affermare con certezza che il ciclo vitale della resina risulta essere ben oltre i 2 anni.
Sintesi di nuovi derivati pirimidinici e valutazione della loro attività biologica come antitumorali
Resumo:
L'inibizione dell'attività della proteina CDC20, importante nel processo di regolazione del ciclo cellulare, è attualmente considerata un target sul quale indirizzare la ricerca di farmaci per il trattamento della leucemia mieloide acuta (LAM). Recenti studi hanno evidenziato che il nucleo 2-amminopirimidinico e il gruppo tricloroetilenico si sono dimostrati essenziali per l’inibizione del processo di attivazione di CDC20. In questo lavoro di tesi è spiegata la sintesi di derivati indolici, benzotiazolici e benzofurazanici aventi in comune i gruppi 2-amminopirimidinico e tricloroetilenico; sono inoltre riportati i risultati dei saggi di attività biologica effettuati su linee cellulari di LAM e altri carcinomi umani.
Resumo:
Negli ultimi decenni i polimeri coniugati, grazie alla loro peculiarità di essere dei semiconduttori organici, hanno attirato l’attenzione della ricerca scientifica, e tra questi composti rientrano i politiofeni. Versatilità, robustezza chimica strutturale e fluorescenza sono alcune delle proprietà che caratterizzano tali composti e che hanno permesso di esplorare nuovi materiali da un punto di vista scientifico e tecnologico. Recentemente molto interessanti sono risultate essere le nanoparticelle politiofeniche poiché permettono di modulare le proprietà chimico-fisiche dei relativi polimeri, ampliandone le potenzialità a trovare applicazione in molteplici dispositivi elettronici, tra cui le celle solari (CS) organiche. Infatti, molto attivo è l’interesse della comunità scientifica per ottimizzare questi dispositivi ricercando nuovi prodotti che soddisfino diversi requisiti, come riduzione dell’impatto ambientale, la facilità di preparazione e compatibilità con substrati flessibili. In tale contesto, uno degli obiettivi della ricerca attualmente si focalizza sulla preparazione di nuovi accettori da usare in CS organiche alternativi ai derivati fullerenici, i quali presentano diversi svantaggi. Alla luce dei più recenti risultati si è visto che i politiofeni push-pull, caratterizzati dall’alternanza di gruppi accettori (A) e gruppi donatori (D), hanno una notevole potenzialità a rimpiazzare tali materiali e ad essere usati come accettori non-fullerenici. Infatti, questi hanno permesso di ottenere buoni risultati in termini di conversioni ed efficienze delle celle fotovoltaiche. Lo scopo di questo lavoro di tesi è sintetizzare sei nuovi polimeri a base tiofenica (quattro con sequenza A-D e due con sequenza A-A) per studiarne le possibili applicazioni come materiali accettori non-fullerenici e la loro organizzazione in strutture ordinate di nanoparticelle.
Resumo:
La Brain Computer Interface, con l’acronimo BCI, è un mezzo per la comunicazione tra cervello e macchina. La comunicazione si basa sulla emanazione di segnali elettrici del cervello che vengono rilevati da un dispositivo, il quale invia i segnali digitalizzati ad un elaboratore. I segnali elettrici, chiamati EEG, permettono al cervello di regolare la comunicazione tra le diverse cellule neurali. La BCI intercetta questi segnali e, previa elaborazione, permette di ottenere diversi diagrammi, detti metriche, per poter misurare, sotto svariati aspetti, il funzionamento del cervello. Le ricerche scientifiche sulle EEG hanno rilevato una correlazione tra i segnali elettrici nel cervello di un soggetto con il suo livello di performance e stato emotivo. È quindi possibile comprendere, tramite una serie di parametri, come la mente dei soggetti reagisce a stimoli esterni di svariata tipologia durante lo svolgimento di un’attività. L’elaboratore, che riceve il segnale dalla BCI, è il componente che si occupa di trasformare i segnali elettrici, generati dal cervello e digitalizzati, in risultati facilmente interpretabili dall’utente. Elaborare i segnali EEG in tempo reale porta a dover utilizzare algoritmi creati appositamente per questo scopo e specifici perle metriche preposte. Lo scopo di questa tesi è quello di presentare un progetto sullo sviluppo della fase di smistamento dei dati ricevuti dall’elaboratore. Nel contempo si fornirà una conoscenza scientifica minima per comprendere le scelte fatte. Tale progetto è stato reso possibile dalla collaborazione con l’azienda Vibre, che si dedica allo sviluppo di un sistema comprendente BCI ed elaboratore.