990 resultados para valore atteso prezzo equo momenti utilità
Resumo:
Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.
Resumo:
L'utilizzo di polimeri organici coniugati in dispositivi elettronici per applicazioni biologiche, grazie alle loro proprietà meccaniche ed elettriche, insieme alla loro biocompatibilità, è un campo di ricerca relativamente nuovo e in rapida espansione. In questo lavoro di tesi si utilizza la tecnica del Voltage Clamp in configurazione whole cell per caratterizzare le proprietà elettrofisiologiche della linea cellulare di glioblastoma multiforme (T98G) e per registrare le correnti ioniche di cellule adese su una matrice polimerica biocompatibile di poli(etilenediossitiofene)-poli(stirenesulfonato) (PEDOT:PSS). La tecnica consiste nel bloccare il potenziale di membrana al valore desiderato, secondo un preciso protocollo di stimolazione, misurando la corrente necessaria per mantenere costante il potenziale presente tra le due superfici della membrana cellulare. Nella prima parte del lavoro le cellule sono state perfuse con farmaci inibitori dei canali potassio, prima con il bloccante non specifico tetraetilammonio (TEA), e poi selettivamente tramite bloccanti specifici come iberiotossina e dendrotossina. Il 44% circa delle cellule ha evidenziato una significativa corrente residua riconducibile all'attività dei canali ionici voltaggio-dipendenti Kv1.2. Al contrario nelle cellule restanti questi canali non sono espressi. Successivamente, sempre utilizzando le T98G, si è analizzato come lo stato di ossido-riduzione del polimero coniugato PEDOT:PSS possa influenzare le correnti dei canali ionici di membrana; è emerso che il substrato di PEDOT:PSS ridotto provoca una diminuzione significativa della corrente registrata rispetto al substrato di controllo (petri in polistirene). Questi risultati sono stati confrontati con le curve di proliferazione delle cellule T98G coltivate per 24h, 48h e 72h sui diversi substrati considerati, evidenziando interessanti correlazioni nel caso del substrato PEDOT:PSS ridotto.
Resumo:
La saturazione del mercato del glicerolo, co-prodotto del biodiesel, ha portato allo sviluppo di nuovi processi che permettessero la sua trasformazione in composti a maggiore valore aggiunto. Uno dei principali processi di interesse è la sintesi diretta di acido acrilico, che prevede uno step di disidratazione, catalizzato da siti acidi, con l’ottenimento dell’acroleina, e un successivo step di ossidazione dell’aldeide insatura, mediato da siti redox, ad acido acrilico. Il compimento di entrambi gli step catalitici può essere effettuato mediante l’utilizzo di catalizzatori bifunzionali. I sistemi più promettenti sono costituiti da bronzi di tungsteno/vanadio con struttura esagonale. Per sviluppare ulteriormente tali sistemi è necessario determinare l’influenza di alcune loro caratteristiche, come l’acidità e le caratteristiche dello ioni vanadio, sulle prestazioni catalitiche. Lo scopo di questo lavoro ha riguardato lo studio dell’influenza dei centri acidi presenti nei bronzi esagonali di tungsteno/vanadio, e del ruolo dello ione vanadio, analizzando il comportamento catalitico di bronzi di tungsteno e di alluminofosfati.
Resumo:
Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.
Resumo:
Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.
Resumo:
Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
In questa tesi viene affrontato il problema della stabilità delle strutture stellari da un punto di vista relativistico. La stella è approssimata ad un fluido perfetto a simmetria sferica, e le equazioni che ne governano la struttura vengono ricavate grazie alle risoluzione delle equazioni di campo della relatività generale in questo caso particolare. L'approssimazione di fluido perfetto permette anche di ricavare un'equazione di stato che lega densità di energia e pressione tramite un parametro, detto parametro di rigidità. Un'analisi del comportamento della materia al variare della densità consente di stabilire l'andamento di questo parametro, mentre uno studio delle piccole oscillazioni radiali della stella permette di stabilire quali sono i valori del parametro che consentono un equilibrio stabile. La stabilità risulta possibile in due differenti intervalli di densità, che corrispondono ai due tipici stadi finali dell'evoluzione stellare: nana bianca e stella di neutroni. Grazie alle equazioni che descrivono la struttura stellare è possibile stabilire, nei due intervalli di densità, quale sia il valore che la massa della stella non può superare: si ricavano il limite di Chandrasekhar e il limite di Oppenheimer-Volkoff. Infine viene mostrato come la relatività generale imponga un limite assoluto alla stabilità di una distribuzione di materia, sostenuta da una qualsiasi forza della natura: superato questo confine, la materia non può fare altro che collassare in un buco nero.
Resumo:
Nella fisica delle particelle, onde poter effettuare analisi dati, è necessario disporre di una grande capacità di calcolo e di storage. LHC Computing Grid è una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunità di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantità di risorse condivise da numerose comunità scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunità scientifica è interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi è di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione all’esperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.
Resumo:
La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
EPUB rappresenta attualmente uno dei formati più usati per distribuire pubblicazioni digitali (ebook): è uno standard aperto e libero, i cui scenari d'uso variano dall'utilizzo interno, da parte di editori e aziende di conversione, alle distribuzione e vendita. EPUB è basato sui principali standard web, come HTML5 e CSS ed è progettato per strutturare e renderizzare contenuto reflowable, ottimizzando così la presentazione per il sistema di lettura usato. L'uso di specifiche conosciute e ancora in fase di definizione assicura un alto livello di attenzione e una comunità vivace, ma introduce anche un certo livello di incertezza sui futuri sviluppi. Uno degli aspetti centrali di EPUB è l'apertura totale verso pratiche che rendano il contenuto accessibile a persone con disabilità. Questa apertura è dovuta in parte all'uso degli standard web sopracitati, ma anche dalla consapevolezza che il contenuto accessibile rappresenta un valore aggiunto di notevole entità sia per i fruitori (anche non disabili) sia per gli editori e gli autori (in termini di mercato), creando un circolo virtuoso. Un altro aspetto interessante di EPUB è il suo possibile uso nell'ambito e-learning. È stata creata una specifica (più precisamente un profilo) deputata esclusivamente a questo scopo: EDUPUB. Tale specifica è tuttora in una fase iniziale, poichè ancora in draft, ma può comunque risultare di sicuro interesse per tutti i soggetti già coinvolti nello sviluppo e nell'uso di EPUB e di tecnologie relative all'apprendimento elettronico.
Resumo:
Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.
Resumo:
Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.