999 resultados para Centro di massa centro di gravità
Resumo:
Il ruolo dell’Ospedale Psichiatrico Giudiziaro è un problema crescente in entrambi i paesi sviluppati e in via di sviluppo. Gli esperti della psichiatria di comunità e dei gruppi di auto aiuto vedono l'empowerment come un fattore chiave per il successo di queste istituzioni. Uno studio quantitativo esplorativo è stato condotto in un ospedale Psichiatrico Giudiziario a Tirana. Questo studio ha misurato l'empowerment del paziente e il personale con l'obiettivo di comprendere la situazione attuale presso l'O. P. G. di Tirana. Questo consentirà alle parti interessate di effettuare un intervento di successo per servire al meglio le esigenze di tutte le parti. Empowerment in psichiatria può essere definito come un progetto attentamente progettata che contribuirà a consentire al personale di aiutare al meglio a soddisfare le esigenze dei pazienti e dei operatori. Pertanto, l’empowerment scale e altri questionari sono stati utilizzati sia per il paziente e gli operatori del personale dell'O. P. G. di Tirana. I risultati mostrano una differenza significativa tra il personale e i pazienti in materia di empowerment. Correlazioni interessanti sono state trovate tra l’empowerment e dati demografici dei pazienti e il personale dell'Ospedale Psichiatrico Giudiziario di Tirana. Una correlazione positiva tra empowerment e alcuni elementi della qualità di vita dei pazienti. Si è anche trovato che l’empowerment dipendeva dalla gravità dei sintomi. E' molto importante avere un intervento concreto che prevede di aumentare il livello dell’empowerment nel personale e nei pazienti presso l'Ospedale Psichiatrico Giudiziario di Tirana.
Resumo:
Sebbene studiati a fondo, i processi che hanno portato alla formazione ed alla evoluzione delle galassie così come sono osservate nell'Universo attuale non sono ancora del tutto compresi. La visione attuale della storia di formazione delle strutture prevede che il collasso gravitazionale, a partire dalle fluttuazioni di densità primordiali, porti all'innesco della formazione stellare; quindi che un qualche processo intervenga e la interrompa. Diversi studi vedono il principale responsabile di questa brusca interruzione della formazione stellare nei fenomeni di attività nucleare al centro delle galassie (Active Galactic Nuclei, AGN), capaci di fornire l'energia necessaria a impedire il collasso gravitazionale del gas e la formazione di nuove stelle. Uno dei segni della presenza di un tale fenomeno all'interno di una galassia e l'emissione radio dovuta ai fenomeni di accrescimento di gas su buco nero. In questo lavoro di tesi si è studiato l'ambiente delle radio sorgenti nel campo della survey VLA-COSMOS. Partendo da un campione di 1806 radio sorgenti e 1482993 galassie che non presentassero emissione radio, con redshift fotometrici e fotometria provenienti dalla survey COSMOS e dalla sua parte radio (VLA-COSMOS), si è stimata la ricchezza dell'ambiente attorno a ciascuna radio sorgente, contando il numero di galassie senza emissione radio presenti all'interno di un cilindro di raggio di base 1 Mpc e di altezza proporzionale all'errore sul redshift fotometrico di ciascuna radio sorgente, centrato su di essa. Al fine di stimare la significatività dei risultati si è creato un campione di controllo costituito da 1806 galassie che non presentassero emissione radio e si è stimato l'ambiente attorno a ciascuna di esse con lo stesso metodo usato per le radio sorgenti. I risultati mostrano che gli ammassi di galassie aventi al proprio centro una radio sorgente sono significativamente più ricchi di quelli con al proprio centro una galassia senza emissione radio. Tale differenza in ricchezza permane indipendentemente da selezioni basate sul redshift, la massa stellare e il tasso di formazione stellare specifica delle galassie del campione e mostra che gli ammassi di galassie con al proprio centro una radio sorgente dovuta a fenomeni di AGN sono significativamente più ricchi di ammassi con al proprio centro una galassia senza emissione radio. Questo effetto e più marcato per AGN di tipo FR I rispetto ad oggetti di tipo FR II, indicando una correlazione fra potenza dell'AGN e formazione delle strutture. Tali risultati gettano nuova luce sui meccanismi di formazione ed evoluzione delle galassie che prevedono una stretta correlazione tra fenomeni di AGN, formazione stellare ed interruzione della stessa.
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.
Resumo:
I test clinici e i questionari generalmente non sono in grado di fornire una valutazione predittiva e quantitativa della stabilità motoria. Permettono al clinico di esaminare la forza muscolare del paziente, il grado di spasticità, la funzionalità motoria e l'autonomia nello svolgimento delle normali attività, ma non di capire quanto il soggetto sia stabile. Sono stati esaminati diciotto pazienti con esiti di stroke in fase post acuta ed il 38% ha affermato di essere caduto almeno una volta nell'arco degli ultimi dodici mesi. Adottando una politica di prevenzione delle cadute si potrebbero limitare questi eventi che vanno ad aggravare un quadro clinico già compromesso. Per tale motivo sono attualmente oggetto di studio misure biomeccaniche, eseguite in laboratorio, atte a definire metodi con alta sensibilità e specificità per la valutazione della stabilità del cammino. Nel presente lavoro le misure strumentali sono state ottenute partendo dal segnale di accelerazione del centro di massa corporeo. Servendosi di un'unità inerziale munita di accelerometro triassiale è stato possibile, durante il cammino, ricavare l'andamento delle accelerazioni antero-posteriore, medio-laterale e verticale. Grazie ad un algoritmo, messo a punto nel Laboratorio di Bioingegneria della Facoltà di Cesena dall'Ing. Federico Riva, sono stati estrapolati gli indici strumentali. Il corpo centrale di questa tesi consiste nell'analisi statistica condotta tramite modelli di regressione lineare che mettono in correlazione parametri clinici (acquisiti per mezzo di test e questionari) abitualmente usati in ospedale e indici strumentali.
Resumo:
L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.
Resumo:
In questo lavoro di tesi sono stati confrontati diversi protocolli per la purificazione della proteina CRM197 mediante cromatografia di affinità a cationi divalenti. Il CRM197 è una variante della tossina difterica caratterizzata da stessa massa molecolare e struttura. A causa di un’unica mutazione (G52E), tale variante è atossica e presenta numerose applicazioni in campo farmaceutico (in particolare nella preparazione di vaccini coniugati). Fino ad ora, per la produzione del CRM197 è stato utilizzato il ceppo originale di derivazione, cioè Corynebacterium diphteriae, e la produzione eterologa nel batterio Escherichia coli ha mostrato notevoli difficoltà. In particolare, mentre è stato possibile definire un valido protocollo di sovraespressione e di estrazione proteica, le fasi successive di purificazione e di refolding (rinaturazione) sono ancora problematiche e causano basse rese finali, ostacolando le prospettive di scale-up su scala industriale. Il CRM197, infatti, per le sue caratteristiche strutturali, come l’elevata percentuale di amminoacidi idrofobici e la presenza di foglietti β esposti al solvente, è suscettibile alla formazione di aggregati insolubili che impone, lungo tutto il processo, il controllo delle interazioni idrofobiche (con agenti denaturanti e/o detergenti). In un precedente lavoro di tesi, è stato sviluppato un protocollo valido per ottenere un’elevata espressione proteica intracellulare. Il primo passaggio di purificazione prevede una cromatografia di affinità su colonna che viene sfruttata anche per eseguire il refolding proteico. Tuttavia, durante la messa a punto di tale processo, sono stati osservati evidenti fenomeni di aggregazione della proteina, oltre all’instaurarsi di legami aspecifici proteina-proteina o proteina-resina cromatografica. In questo lavoro di tesi sono state affrontate alcune problematiche legate a tale passaggio di purificazione per cercare di individuare le condizioni ottimali per ottenere il CRM197 in forma nativa e biologicamente attiva.
Resumo:
L’elaborato descrive la progettazione di un prototipo per misure spettroscopiche di desorbimento termico e i primi esperimenti effettuati con esso. Vengono descritti in dettaglio gli strumenti peculiari di tale apparato, come lo spettrometro di massa quadrupolo e la pompa a diffusione e le parti costruite ad hoc per tale dispositivo, ovvero la struttura del portacampione e del sostegno al forno utilizzato per il riscaldamento delle sostanze analizza- te. Particolare importanza `e posta nella descrizione della parte software del prototipo, che utilizza la tecnologia del DDE (Dynamic Data Exchange) per comunicare i dati tra due programmi diversi operanti su una medesima piattaforma; viene quindi illustrato il funzionamento del software comunicante direttamente con lo spettrometro e del programma LabView creato per il monitoraggio e il salvataggio dei dati raccolti da tale apparato. L’ultima parte dell’elaborato riguarda i primi esperimenti di spettroscopia di desorbimento termico effettuati, comprendendo sia quelli preliminari per testare la qualità del prototipo sia quelli da cui `e possibile ottenere una curva di desorbimento termico per i vari gas analizzati in camera, come ad esempio idrogeno.
Resumo:
Oggetto della presente tesi di Laurea è lo studio delle nuove tecnologie disponibili per l’immunorivelazione di marcatori proteici in fase solida. Particolare attenzione è stata rivolta alle problematiche e alle esigenze tecniche nella quantificazione del complesso proteico in esame a seguito della rivelazione di un segnale, testimone proporzionale della grandezza biologica in esame. In altre parole l’identificazione e la quantificazione di proteine di interesse avviene a valle di un processo, chiamato “western blotting”, che genera un segnale (colore, luce, fluorescenza) al quale riferire la sostanza molecolare della misura. L’accuratezza della quantificazione, a seguito degli errori sperimentali dovuti alla tecnologia, rappresenta un problema complesso nella pratica biochimica e nello studio dei fenomeni di variazione dell’espressione genica, ovvero del fenotipo, in un organismo. Il primo capitolo si apre con la descrizione del processo di discriminazione delle proteine in base al loro rapporto carica/massa molecolare tramite elettroforesi su gel. Il capitolo prosegue con la disamina della tecnologia di ultima generazione per la visualizzazione delle proteine risolte e la loro eventuale quantificazione, paragonandone le prestazioni rispetto ai sistemi di visualizzazione e quantificazione classici. Argomenti del secondo capitolo sono lo studio delle prestazioni delle nuove tecnologie per l’esecuzione del “blotting” su supporto solido e per l’incubazione delle proteine con immunoglobuline. Seguono, rispettivamente nei capitoli terzo e quarto, l’analisi delle tecnologie analogiche e digitali per la rivelazione del segnale e la quantificazione tramite opportuni software.
Resumo:
La ricerca pone al centro dell’indagine lo studio dell’importanza del cibo nelle cerimonie nuziali dell’Europa occidentale nei secoli V-XI. Il corpus di fonti utilizzate comprende testi di genere diverso: cronache, annali, agiografie, testi legislativi, a cui si è aggiunta un’approfondita analisi delle antiche saghe islandesi. Dopo un'introduzione dedicata in particolare alla questione della pubblicità della celebrazione, la ricerca si muove verso lo studio del matrimonio come “processo” sulla base della ritualità alimentare: i brindisi e i banchetti con cui si sigla l’accordo di fidanzamento e i ripetuti convivi allestiti per celebrare le nozze. Si pone attenzione anche ad alcuni aspetti trasversali, come lo studio del caso della “letteratura del fidanzamento bevuto”, ossia una tradizione di testi letterari in cui il fidanzamento tra i protagonisti viene sempre ratificato con un brindisi; a questo si aggiunge un’analisi di stampo antropologico della "cultura dell’eccesso", tipica dei rituali alimentari nuziali nel Medioevo, in contrasto con la contemporanea "cultura del risparmio". L'analisi si concentra anche sulle reiterate proibizioni al clero, da parte della Chiesa, di partecipare a banchetti e feste nuziali, tratto comune di tutta l’epoca altomedievale. Infine, la parte conclusiva della ricerca è incentrata sulla ricezione altomedievale di due figure bibliche che pongono al centro della narrazione un banchetto nuziale: la parabola delle nozze e il banchetto di Cana. L’insistente presenza di questi due brani nelle parole dei commentatori biblici mostra la straordinaria efficacia del “linguaggio alimentare”, ossia di un codice linguistico basato sul cibo (e su contesti quali l’agricoltura, la pesca, ecc.) come strumento di comunicazione sociale di massa con una valenza antropologica essenzialmente universale.
Resumo:
OBIETTIVI: Per esplorare il contributo dei fattori di rischio biomeccanico, ripetitività (hand activity level – HAL) e forza manuale (peak force - PF), nell’insorgenza della sindrome del tunnel carpale (STC), abbiamo studiato un’ampia coorte di lavoratori dell’industria, utilizzando come riferimento il valore limite di soglia (TLV©) dell’American Conference of Governmental Industrial Hygienists (ACGIH). METODI: La coorte è stata osservata dal 2000 al 2011. Abbiamo classificato l’esposizione professionale rispetto al limite di azione (AL) e al TLV dell’ACGIH in: “accettabile” (sotto AL), “intermedia” (tra AL e TLV) e “inaccettabile” (sopra TLV). Abbiamo considerato due definizioni di caso: 1) sintomi di STC; 2) sintomi e positività allo studio di conduzione nervosa (SCN). Abbiamo applicato modelli di regressione di Poisson aggiustati per sesso, età, indice di massa corporea e presenza di patologie predisponenti la malattia. RISULTATI: Nell’intera coorte (1710 lavoratori) abbiamo trovato un tasso di incidenza (IR) di sintomi di STC di 4.1 per 100 anni-persona; un IR di STC confermata dallo SCN di 1.3 per 100 anni-persona. Gli esposti “sopra TLV” presentano un rischio di sviluppare sintomi di STC di 1.76 rispetto agli esposti “sotto AL”. Un andamento simile è emerso per la seconda definizione di caso [incidence rate ratios (IRR) “sopra TLV”, 1.37 (intervallo di confidenza al 95% (IC95%) 0.84–2.23)]. Gli esposti a “carico intermedio” risultano a maggior rischio per la STC [IRR per i sintomi, 3.31 (IC95% 2.39–4.59); IRR per sintomi e SCN positivo, 2.56 (IC95% 1.47–4.43)]. Abbiamo osservato una maggior forza di associazione tra HAL e la STC. CONCLUSIONI: Abbiamo trovato un aumento di rischio di sviluppare la STC all’aumentare del carico biomeccanico: l’aumento di rischio osservato già per gli esposti a “carico intermedio” suggerisce che gli attuali valori limite potrebbero non essere sufficientemente protettivi per alcuni lavoratori. Interventi di prevenzione vanno orientati verso attività manuali ripetitive.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico �è negli ultimi anni uno dei temi in maggior rilievo riguardo la sostenibilit�à energetica, questo per via della sua abbondanza in natura, della sua elevata energia chimica per unità di massa, e della non tossicità dei prodotti della sua combustione. Tuttavia non si conosce ancora una maniera e�fficiente di immagazzinarlo per poterlo utilizzare per applicazioni mobili. In questo lavoro di tesi sono state cresciute, e analizzate mediante microscopia elettronica, nanoparticelle di magnesio decorate con metalli di transizione (Pd e Ti), che si collocano tra i candidati più promettenti per lo stoccaggio di idrogeno a stato solido.
Resumo:
La presenza di micotossine nelle materie prime desta grande preoccupazione a causa delle importanti implicazioni nella sicurezza di alimenti e mangimi. Lo scopo di questo lavoro è stato quello di mettere a punto e validare una metodica analitica rapida e semplice, in cromatografia liquida ad ultra prestazione accoppiata a spettrometria di massa-tandem (UPLC-MS/MS), per la determinazione simultanea di differenti micotossine: aflatossine (B1, B2, G1, G2), ocratossina A, fumonisine (B1, B2), deossinivalenolo e zearalenone in matrici biologiche. Il metodo sviluppato per l’analisi di campioni di mangime secco per cani ha mostrato prestazioni adeguate ed è stato applicato a 49 campioni reperibili in commercio, al fine di valutare la sua efficacia e di ottenere alcuni dati preliminari sulla contaminazione da micotossine in alimenti per cani disponibili sul mercato italiano. Lo studio ha evidenziato una percentuale alta di campioni positivi, contenenti principalmente fumonisine, deossinivalenolo e ocratossina A; tutti i tenori si sono dimostrati inferiori al limite di legge previsto (Racc. CE 576/2006). Una seconda metodica è stata messa a punto e validata per l’identificazione e la quantificazione micotossine in campioni di formaggio; per questa matrice è stata inserita anche l’aflatossina M1, specifica dei prodotti lattiero - caseari. Le differenti proprietà chimico-fisiche degli analiti e la complessità della matrice hanno implicato alcune difficoltà nello sviluppo della metodica. Tuttavia, il metodo validato si è mostrato rapido, semplice ed affidabile ed è stato applicato a diversi tipi di formaggi per verificarne la versatilità. I risultati preliminari hanno mostrato l’assenza di contaminazione da parte delle micotossine in oggetto. Entrambi i metodi si sono dimostrati utili per il monitoraggio di contaminanti in matrici complesse ad oggi ancora poco studiate.