1000 resultados para Energia solare, Fisica delle celle solari fotovoltaiche, Celle Tandem
Resumo:
Il continuo aumento del consumo energetico e l’aggravarsi delle condizioni climatiche hanno incrementato la necessità di una produzione più intensa e meno inquinante. Tra le numerose alternative energetiche che si possono annoverare, quella di particolare interesse `e la fusione nucleare. Nello specifico si analizzerà una ben determinata tipologia di prototipi di reattori, la configurazione Tokamak a confinamento elettromagnetico del plasma.
Resumo:
Nel presente elaborato di tesi la metodologia Life Cycle Assessment (che in accordo con le norme ISO 14040-44 permette di quantificare i potenziali impatti sull’ambiente associati ad un bene o servizio lungo tutto il suo ciclo di vita) è applicata a processi appartenenti al settore agro-industriale, con particolare riguardo alla valorizzazione dei coprodotti della filiera olivicola olearia. Nello specifico vengono descritti i risultati di un’analisi del ciclo di vita condotta sul processo di valorizzazione delle sanse di oliva operata dalla Società Agricola A.R.T.E, che ha sede in Puglia. In questo processo, la sansa di olive è trattata mediante digestione anaerobica che permette la produzione di energia elettrica e di un digestato, stabilizzato e utilizzato come ammendante. Il processo analizzato si pone in alternativa sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo, confrontati in termini di impronta di carbonio. Inoltre nello studio sono state confrontate diverse tecnologie di upgrading di biogas a biometano per valutare quale risulta essere ambientalmente preferibile e potenzialmente installabile nell’azienda A.R.T.E. Il sistema analizzato risulta un'alternativa complessivamente preferibile, da un punto di vista ambientale, sia al metodo di produzione che dà origine a sanse trifasiche, sia allo spandimento delle sanse su suolo agricolo. Il credito ambientale conseguibile mediante il recupero energetico dal biogas prodotto dalla digestione anaerobica delle sanse bifasiche e la produzione di un digestato stabile permettono un beneficio ambientale che controbilancia l’emissione di CO2 attribuibile all’intero sistema. Inoltre lo studio ha permesso una stima di quale tecnologia di raffinazione del biogas a biometano sia potenzialmente installabile nell’azienda A.R.T.E. I risultati mostrano che la tecnologia separazione a membrana risulta meno impattante rispetto alle altre tecnologie di upgrading.
Resumo:
L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.
Resumo:
La simulazione computerizzata è uno strumento per prevedere il comportamento di un sistema quando il sistema non è indagabile. Molti sono gli ambiti in cui viene utilizzata. Uno fra questi è l'evacuazione di folle. Le numerose tragedie, conseguenti a situazioni o eventi in presenza di folle, che hanno luogo in ogni parte del mondo a causa dell'incapacità di reagire in maniera coordinata a situazioni di emergenza, rendono necessario un innalzamento della comprensione delle dinamiche che emergono durante l'evacuazione. Molti studi hanno analizzato quelli che sono gli aspetti psicologici dell'essere umano che entrano in gioco in situazioni di panico. Ma è anche necessario considerare che cosa accade a un livello fisico. Questo contributo ha come obiettivo l'introduzione, all'interno del simulatore Alchemist, di elementi di micro-interazione fisica che possano fare da ponte a ciò che accade a livello cognitivo, così che sia possibile far emergere caratteristiche osservabili, come spinte e cadute, nell'ottica di aumentare il realismo nelle simulazioni di evacuazione di folle.
Resumo:
Si studia il comportamento di particelle in un tipo particolare di biliardo dinamico, in cui le riflessioni sul bordo avvengono attraverso l’inversione dell’angolo che la traiettoria compie rispetto a una direzione verticale fissata, invece della solita normale alla curva à la Fresnel. L'interesse in questo argomento deriva dall'evidenza sperimentale di un comportamento simile nella propagazione di onde entro fluidi stratificati: questa tipologia di biliardo è quindi spesso detta biliardo di onde interne. Lo studio di questi oggetti, sebbene puramente matematico, può dare luogo a peculiari considerazioni fisiche ed applicative. Notevolmente, la frequente presenza di attrattori in tali modelli suggerisce che fenomeni di concentrazione delle onde interne dovuti a tale regola di riflessione potrebbero avere un ruolo in alcuni sistemi reali, come la circolazione oceanica. Dopo aver passato in rassegna alcuni elementi della teoria di Poincaré degli omeomorfismi del cerchio, e alcuni risultati specifici sui biliardi di onde interne, si studia il caso particolare di un biliardo di forma parabolica, tagliato da un segmento normale al suo asse di simmetria. In quest'ultimo contesto, si dimostrano alcuni risultati originali sul comportamento delle traiettorie.
Resumo:
L’adroterapia è una tecnica di cura tumorale basata sull’irraggiamento della zona cancerosa tramite ioni pesanti e particelle cariche. Queste permettono di massimizzare il danno nella zona tumorale e limitare invece quello subito dalle cellule sane. Il più grande ostacolo risiede nella limitata reperibilità di informazioni in letteratura sulla frammentazione del target. I frammenti così prodotti infatti hanno una mobilità di µm e per questo motivo sono molto difficili da rivelare. In questo contesto nel 2017 l’esperimento FOOT, approvato dall’INFN nasce con l’obiettivo di misurare la sezione d’urto differenziale di tutti i prodotti emessi dalla frammentazione nucleare fra il fascio ed il paziente. Operando in condizione di cinematica inversa l’esperimento riesce a rivelare questi frammenti ed a misurarne l’abbondanza e l’energia. E’ stata effettuata a questo proposito, un’analisi dati volta ad eliminare le frammentazioni in aria precedenti ed interne al rivelatore MSD per poter ottenere misure più accurate delle sezioni d’urto di frammentazione.
Resumo:
L’adroterapia è una terapia medica oncologica che consiste nell’irraggiamento della massa tumorale tramite un fascio di particelle cariche, come protoni o ioni pesanti. Ad oggi però, non è ancora stata fatta una stima completa degli effetti causati dagli eventi di frammentazione nucleare tra le particelle del fascio e i nuclei del corpo umano. A tale scopo è nato nel 2017 l’esperimento FOOT (FragmentatiOn Of Target), con l’obiettivo di misurare la sezione d’urto differenziale di tutti i prodotti emessi nella frammentazione nucleare tra il fascio e il paziente. In questa tesi sono stati analizzati i dati acquisiti relativi all’interazione tra un fascio di ioni ossigeno a 400MeV/n su un bersaglio di grafite. Per ottenere una misura quanto migliore delle sezioni d’urto è necessario eliminare gli eventi di frammentazione che avvengono tra il fascio e i nuclei dell’aria posta tra i rivelatori dell’apparato sperimentale. Confrontando l’energia rilasciata in due rivelatori consecutivi si può capire se nell’aria posta fra questi vi sono stati tali eventi.
Resumo:
Gli Ultra-High-Energy Cosmic Rays sono dei raggi cosmici-dotati di energia estremamente elevata-che raggiungono la Terra con un bassissimo rateo e dei quali abbiamo pochi dati a riguardo; le incertezze riguardano la loro composizione, la loro sorgente, i metodi di accelerazione e le caratteristiche dei campi magnetici che li deviano durante il loro cammino. L’obiettivo di questo studio è determinare quali modelli di campo magnetico possano descrivere correttamente la propagazione degli UHECRs, andando a fare un confronto con i dati sperimentali a disposizione; infatti, quello che osserviamo è una distribuzione isotropa nel cielo e, di conseguenza, i modelli teorici di propagazione, per poter essere accettati, devono rispecchiare tale comportamento. Sono stati testati nove modelli di campo magnetico tratti da simulazioni cosmologiche, andando a considerare due diverse composizione per i CRs (simil-ferro e simil-protone) e il risultato ha dato delle risposte positive solo per tre di essi. Tali modelli, per cui troviamo accordo, sono caratterizzati da una scala di inomegeneità più ampia rispetto a quella dei modelli scartati, infatti, analizzando il loro spettro di potenza, il maggior contributo è dato da fluttuazioni di campo magnetico su scale di 10 Mpc. Ciò naturalmente, viste anche le poche informazioni riguardo ai campi magnetici intergalattici, ci porta a pensare che campi di questo tipo siano favoriti. Inoltre, per tali modelli, gli esiti sono risultati particolarmente in accordo con i dati sperimentali, considerando CRs con composizione simile al ferro: ciò fa pensare che tale composizione possa essere quella effettiva.
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Le reazioni termo-nucleari sono un particolare tipo di reazioni nucleari che avvengono nelle stelle e che ne assicurano il rifornimento energetico. Esse sono la principale fonte di energia nelle stelle, in quanto la fusione di elementi leggeri (in particolare fino al ferro) risulta essere esotermica. La fusione di elementi leggeri produce elementi più pesanti, a partire dalla fusione dell'idrogeno, che produce elio, fino alla fusione del silicio, che produce nichel. Solamente le stelle con massa maggiore di 8 masse solari, tuttavia, hanno massa necessaria a raggiungere la combustione del silicio. Le stelle meno massive sono destinate ad arrestarsi alla fusione di elementi più leggeri e a diventare delle nane bianche. Oltre alla fusione di elementi leggeri, esistono altre reazioni negli interni stellari in grado di fornire energia e formare nuovi elementi. Esse sopraggingono in larga parte nelle fasi finali della vita di una stella, quando le temperature all'interno dei nuclei stellari sono particolarmente elevate. Ne sono un esempio le catture alfa, le catture neutroniche e la fotodisintegrazione. L'insieme delle reazioni termo-nucleari che avvengono nel corso della vita di una stella permettono la creazioni di nuovi elementi, che vengono poi riemessi nel mezzo interstellare tramite esplosioni di supernova e fungono da materiale fondante per la nascita di nuove stelle. Nella seguente tesi verranno affrontate le principali reazioni termo-nucleari che avvengono negli interni stellari, dalla fusione di elementi leggeri fino alle fasi finali della vita di una stella.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
L’accrescimento è un fenomeno di assoluta rilevanza in astrofisica per il fatto di essere uno dei meccanismi di produzione energetica più efficienti conosciuti. Inoltre esso riveste un ruolo fondamentale sia nella caratterizzazione di oggetti astronomici noti come AGN, che per la descrizione di sistemi binari in cui una stella è nella condizione di trasferire parte della propria massa alla compagna. Nell’Introduzione è messa in risalto l’elevata efficienza del processo di accrescimento, soprattutto se confrontata con una delle reazioni termonucleari più celebri come la catena protone-protone. Sono poi mostrati alcuni aspetti qualitativi riguardanti gli AGN e il modo in cui alcune loro particolarità possono essere giustificate proprio grazie ai fenomeni di accrescimento. Il Capitolo 2 è dedicato alla determinazione della luminosità di Eddington, ovvero quel valore limite di luminosità che un corpo in accrescimento può raggiungere e che, se superato, determinata l’innescarsi di processi che portano l’accrescimento a rallentare. All’interno del Capitolo 3 è analizzato il modello di Bondi per l’accrescimento di un oggetto compatto immerso in una distribuzione infinita di gas. Il modello preso in considerazione rappresenta la versione più semplice del modello di Bondi, che fornisce una soluzione idrodinamica e che, tuttavia, presenta ipotesi molto stringenti. Per tale motivo a fine capitolo è stato aggiunto un primo sguardo al problema di Bondi in presenza di electron scattering, andando a vedere il modo in cui questo influenza i risultati classici precedentemente ottenuti. Infine, nel Capitolo 4 è introdotto il problema dell’accrescimento all’interno di sistemi binari in modo da mettere in luce i principali meccanismi che possono dare vita all’accrescimento e le ipotesi sotto le quali questi possono avvenire.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
L’intensificarsi della concorrenza globale, il rapido sviluppo delle tecnologie e le mutevoli richieste dei clienti hanno portato a una tendenza verso maggiori differenze nei requisiti dei clienti, maggiore necessità di personalizzazione, cicli di vita dei prodotti sempre più brevi e la necessità di una rapida introduzione di nuovi prodotti. I produttori devono tenere conto di queste nuove tendenze e devono essere in grado di fronteggiarle per ottenere un vantaggio competitivo. I sistemi di produzione riconfigurabili RMS sono adatti nella gestione di queste richieste in quanto il sistema può essere continuamente riconfigurato per adattarsi alle richieste del mercato in termini di volumi richiesti e personalizzazione esatta dai clienti. Lo sviluppo effettivo di RMS risulta, ad oggi, molto impegnativo per le aziende e questo è il principale motivo per il quale si ricorre ancora a sistemi di produzione maggiormente tradizionali come DMS e FMS. Questo elaborato definisce le caratteristiche fondamentali ed i principi di progettazione dei RMS, facendone un confronto con quelle dei sistemi DMS e FMS. Successivamente, partendo da un esempio industriale e seguendo i principi fondamentali dei RMS, si sviluppano dei concept di linea produttiva, con celle e stazioni idonee allo sviluppo di un sistema riconfigurabile. In ultima analisi, presso il laboratorio dell’Università di Aalborg, in Danimarca, vengono condotte prove pratiche sulla linea di produzione riconfigurabile Festo. Queste hanno permesso di mettere in luce gli aspetti di forza e le criticità di tali sistemi. Infine, vengono proposte idee per rendere più efficaci i RMS e vengono brevemente illustrate altre possibili tipologie di riconfigurazione in cui viene completamente stravolto il concetto di linea di produzione odierno.
Resumo:
Gli sforzi di ricerca relativi all'High Performance Computing, nel corso degli anni, hanno prodotto risultati importanti inerenti all'incremento delle prestazioni sia in termini di numero di operazioni effettuate per periodo temporale, sia introducendo o migliorando algoritmi paralleli presenti in letteratura. Tali traguardi hanno comportato cambiamenti alla struttura interna delle macchine; si è assistito infatti ad un'evoluzione delle architetture dei processori utilizzati e all'impiego di GPU come risorse di calcolo aggiuntive. La conseguenza di un continuo incremento di prestazioni è quella di dover far fronte ad un grosso dispendio energetico, in quanto le macchine impiegate nell'HPC sono ideate per effettuare un'intensa attività di calcolo in un periodo di tempo molto prolungato; l'energia necessaria per alimentare ciascun nodo e dissipare il calore generato comporta costi elevati. Tra le varie soluzioni proposte per limitare il consumo di energia, quella che ha riscosso maggior interesse, sia a livello di studio che di mercato, è stata l'integrazione di CPU di tipologia RISC (Reduced Instruction Set Computer), in quanto capaci di ottenere prestazioni soddisfacenti con un impiego energetico inferiore rispetto alle CPU CISC (Complex Instruction Set Computer). In questa tesi è presentata l'analisi delle prestazioni di Monte Cimone, un cluster composto da 8 nodi di calcolo basati su architettura RISC-V e distribuiti in 4 piattaforme (\emph{blade}) dual-board. Verranno eseguiti dei benchmark che ci permetteranno di valutare: le prestazioni dello scambio di dati a lunga e corta distanza; le prestazioni nella risoluzione di problemi che presentano un principio di località spaziale ridotto; le prestazioni nella risoluzione di problemi su grafi e, nello specifico, ricerca in ampiezza e cammini minimi da sorgente singola.