537 resultados para Donatello i.e. Donato di Niccolò di Betto Bardi, ca. 1386-1466.
Resumo:
Gli Ultra-High-Energy Cosmic Rays sono dei raggi cosmici-dotati di energia estremamente elevata-che raggiungono la Terra con un bassissimo rateo e dei quali abbiamo pochi dati a riguardo; le incertezze riguardano la loro composizione, la loro sorgente, i metodi di accelerazione e le caratteristiche dei campi magnetici che li deviano durante il loro cammino. L’obiettivo di questo studio è determinare quali modelli di campo magnetico possano descrivere correttamente la propagazione degli UHECRs, andando a fare un confronto con i dati sperimentali a disposizione; infatti, quello che osserviamo è una distribuzione isotropa nel cielo e, di conseguenza, i modelli teorici di propagazione, per poter essere accettati, devono rispecchiare tale comportamento. Sono stati testati nove modelli di campo magnetico tratti da simulazioni cosmologiche, andando a considerare due diverse composizione per i CRs (simil-ferro e simil-protone) e il risultato ha dato delle risposte positive solo per tre di essi. Tali modelli, per cui troviamo accordo, sono caratterizzati da una scala di inomegeneità più ampia rispetto a quella dei modelli scartati, infatti, analizzando il loro spettro di potenza, il maggior contributo è dato da fluttuazioni di campo magnetico su scale di 10 Mpc. Ciò naturalmente, viste anche le poche informazioni riguardo ai campi magnetici intergalattici, ci porta a pensare che campi di questo tipo siano favoriti. Inoltre, per tali modelli, gli esiti sono risultati particolarmente in accordo con i dati sperimentali, considerando CRs con composizione simile al ferro: ciò fa pensare che tale composizione possa essere quella effettiva.
Resumo:
Le galassie sono strutture che popolano l'universo e i primi studi riguardanti la loro formazione e composizione risalgono a qualche secolo fa. Nella seguente trattazione si illustreranno i principali metodi di classificazione in base alla configurazione morfologica oppure rispetto ad altre proprietà caratteristiche. Al fine di comprendere al meglio i modelli teorici in grado di dare una spiegazione su come si siano originate le galassie, si esporranno le fasi fondamentali dell'evoluzione dell'universo e le proprietà della materia oscura. Infine ci si soffermerà su un particolare modello di formazione e sull'influenza che può avere riguardo ai buchi neri all'interno delle galassie.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.
Resumo:
Il presente lavoro è suddiviso in due parti. Nella prima sono presentate la teoria degli esponenti di Lyapunov e la teoria del Controllo Ottimo da un punto di vista geometrico. Sono riportati i risultati principali di queste due teorie e vengono abbozzate le dimostrazioni dei teoremi più importanti. Nella seconda parte, usando queste due teorie, abbiamo provato a trovare una stima per gli esponenti di Lyapunov estremali associati ai sistemi dinamici lineari switched sul gruppo di Lie SL2(R). Abbiamo preso in considerazione solo il caso di un sistema generato da due matrici A,B ∈ sl2(R) che generano l’intera algebra di Lie. Abbiamo suddiviso il problema in alcuni possibili casi a seconda della posizione nello spazio tridimensionale sl2(R) del segmento di estremi A e B rispetto al cono delle matrici nilpotenti. Per ognuno di questi casi, abbiamo trovato una candidata soluzione ottimale. Riformuleremo il problema originale di trovare una stima per gli esponenti di Lyapunov in un problema di Controllo Ottimo. Dopodiché, applichiamo il Principio del massimo di Pontryagin e troveremo un controllo e la corrispondente traiettoria che soddisfa tale Principio.
Resumo:
I convertitori elettronici di potenza sono da anni largamente diffusi sul mercato, poiché necessari per pilotare motori elettrici a velocità variabile in ambito industriale e a interfacciare alla rete elettrica i generatori da fonti di energia rinnovabili, in particolare eolica e fotovoltaica. In tutti i casi è richiesto che i convertitori siano efficienti, ovvero che l’energia persa durante la conversione sia minima. Considerando che il cuore di un convertitore è costituito da interruttori statici, è fondamentale una stima accurata dell’efficienza di questi ultimi per definire le prestazioni di un convertitore. Il materiale più diffuso per la realizzazione di questi componenti è il silicio (Si), ma esistono oggi altri semiconduttori che permettono prestazioni migliori, quali il carburo di silicio (SiC) e il nitruro di gallio (GaN). A causa del loro elevato costo di produzione rispetto ai componenti tradizionali, è divenuto sempre più importante stimare l’efficienza dei convertitori che montano queste tecnologie innovative, per trovare una giustificazione al loro impiego. In questa tesi, in particolare, l’efficienza di un convertitore con tecnologia SiC è stata prima calcolata analiticamente e poi testata a banco. Infine, è proposta un’architettura per un inverter trifase che possa essere impiegata per un’applicazione fotovoltaica. Questo lavoro è parte delle attività assegnate a Raw Power S.r.l. nell’ambito del progetto Europeo YesVGaN, il cui scopo ultimo entro i prossimi anni, è la realizzazione di componenti GaN commercialmente appetibili, che necessiteranno di essere testati e confrontati con i dispositivi al silicio e al carburo di silicio.
Resumo:
L'inquinamento è un pensiero costante nel ventunesimo secolo. Ogni anno, i ricercatori cercano di trovare nuove metodologie e tecnologie per controllarlo e ridurlo. Per questo motivo l’Università di Bologna ha avviato svariati progetti per contrastare le problematiche ambientali. Una delle iniziative è AlmaBike. Sono biciclette che vengono assegnate nella forma di comodato gratuito al personale universitario e agli studenti. Nell'ultimo periodo, 50 AlmaBike sono state dotate di un pacchetto sensori in grado di rilevare posizione GPS, la qualità dell’aria, il rumore e alcuni parametri ambientali. Gli obiettivi perseguiti sono: sperimentare un sistema che permetta la misurazione di dati in merito alla qualità ambientale del comune di Bologna e misurare la rilevanza della consapevolezza della qualità dell’aria nella scelta di percorsi da parte di un utente, ad esempio casa-lavoro. L’obiettivo di questa tesi è quello di creare un applicativo che permetta la fruizione dei dati raccolti dai vari sensori attraverso l’uso di tecniche di Data Visualization. I dati vengono elaborati e organizzati con lo scopo di permetterne la comprensione anche ad utenti inesperti. La tesi è suddivisa in tre capitoli: nel primo capitolo sono stati approfonditi i concetti inerenti alla sostenibilità riprendendo quanto detto a proposito degli obiettivi dell'Agenda 2030, facendo anche una breve introduzione sul concetto di IoT e sensori; nel secondo capitolo vengono presentate le tecnologie utilizzate per la realizzazione dell’applicativo tra cui: Docker, MySQL, Angular, Typescript, Golang; nel terzo capitolo viene mostrata nel dettaglio l'applicazione creata: dalle scelte progettuali, fino ad arrivare al risultato finale.
Resumo:
Il presente elaborato intende studiare la comunicazione di moda, nello specifico la comunicazione aziendale della casa di moda di lusso francese Jacquemus. Per fare ciò, si inizia approfondendo l’argomento della storia della moda e riflettendo su come essa possa essere uno strumento di comunicazione non verbale. Successivamente, si prendono in esame i concetti aziendali di Brand Identity, Brand Positioning e analisi SWOT per analizzare come l’azienda di moda francese ha costruito la sua identità di marca, come si posiziona nella mente dei consumatori e per individuare i suoi punti di forza, di debolezza, le sue opportunità di crescita e le minacce che possono, potenzialmente, ostacolarla. Infine, si prendono in considerazione le strategie di marketing attuate da Jacquemus al fine di rendere efficace la sua comunicazione d’impresa, tenendo conto dei nuovi media digitali a disposizione e concentrandosi anche sul modo in cui l’azienda è riuscita a contrastare la crisi dovuta al lockdown in piena pandemia da Covid-19.
Resumo:
Il seguente elaborato propone un modello innovativo per la gestione della logistica distributiva nell’ultimo miglio, congiungendo l’attività di crowd-shipping con la presenza di Autonomous Vehicles, per il trasporto di prodotti all’interno della città. Il crowd-shipping utilizza conducenti occasionali, i quali deviano il loro tragitto in cambio di una ricompensa per il completamento dell’attività. Dall’altro lato, gli Autonomous Vehicles sono veicoli elettrici a guida autonoma, in grado di trasportare un numero limitato di pacchi e dotati di un sistema di sicurezza avanzato per garantire la fiducia nel trasporto. In primo luogo, nel seguente elaborato verrà mostrato il modello di ottimizzazione che congiunge i due attori principali in un unico ambiente, dove sono presenti un numero determinato di prodotti da muovere. Successivamente, poiché il problema di ottimizzazione è molto complesso e il numero di istanze valutabili è molto basso, verranno presentate due soluzioni differenti. La prima riguarda la metaeuristica chiamata Ant System, che cerca di avvicinarsi alle soluzioni ottime del precedente modello, mentre la seconda riguarda l’utilizzo di operatori di Local Search, i quali permettono di valutare soluzioni per istanze molto più grandi rispetto alla metaeuristica. Infine, i due modelli euristici verranno utilizzati per analizzare uno scenario che cerca di riprodurre una situazione reale. Tale scenario tenta di allocare strategicamente le risorse presenti e permette di dimostrare che gli Autonomous Vehicles riescono a supportare gli Occasional Drivers anche quando il numero di prodotti trasportabili è elevato. Inoltre, le due entità proposte riescono a soddisfare la domanda, garantendo un servizio che nel futuro potrebbe sostituire il tradizionale sistema di logistica distributiva last mile.
Resumo:
In questa relazione di tesi verrà affrontato il problema della locomozione naturale in ambienti virtuali che possiedono una grandezza maggiore dello spazio reale nel quale l'utente si muove. Negli anni sono stati sviluppati numerosi metodi di navigazione, ma tra tutti la locomozione naturale è il sistema che porta un livello di immersione maggiore nello spazio virtuale, più di qualsiasi altra tecnica. In questo lavoro di tesi verrà proposto un algoritmo in grado di favorire la locomozione naturale all'interno di lunghi spazi chiusi, andando a modificare la geometria dello spazio virtuale (che andrà ad assumere una forma circolare) e mantendendo comunque un certo grado di realismo dal punto di vista dell'utente. L'obiettivo è quello di tradurre uno spazio virtuale chiuso e lungo (caso comune: un corridoio) in una forma circolare inscritta in una stanza di 2x2m, con un approccio simile a quello degli impossible spaces, con l'obiettivo di studiare in futuro entro quale percentuale di sovrapposizione l'utente si accorge di trovarsi in una geometria impossibile. Nel primo capitolo verranno introdotti i concetti chiave di VR e AR, nonché un'introduzione all'Engine Unity e al software Blender. Nel secondo capitolo si tratterà di computer graphics, quindi si introdurranno i concetti base della grafica 3D con un focus sulla matematica alla base di ogni processo grafico. Nel terzo capitolo verrà affrontano il concetto di embodiment, quindi la percezione del proprio corpo, l'importanza dell'immersitvità dei sistemi virtuali e verrà descritto un paper precedentemente realizzato riguardante tale concetto. Nel capitolo quattro si parlerà del movimento all'interno dei sistemi di realtà virtuale, della locomozione naturale e delle tecniche per rendere tale metodo più accessibile. Nel capitolo cinque infine verrà descritto l'algoritmo realizzato e verranno mostrati i risultati.
Resumo:
Il presente elaborato è volto all’analisi di come viene pianificata la produzione in Fabiana Filippi spa e nello specifico al monitoraggio delle prestazioni dei fornitori di materie prime. L’attività di pianificazione della produzione viene infatti strutturata a partire dalle consegne che i fornitori confermano di riuscire a garantire; risulterebbe dunque inutile strutturare e pianificare una produzione se a monte non vengono monitorati i fornitori che ne permettono l’avvio. Proprio per questa ragione è stato introdotto uno strumento di monitoraggio dei fornitori che permetta di analizzarli completamente a 360°, sulla base di quattro parametri di riferimento: affidabilità di consegna, puntualità, qualità di consegna e rispetto delle quantità richieste. A ciascun fornitore è stata poi associata una classe (A, B, C) con lo scopo di individuare dei target minimi prestazionali che i fornitori appartenenti a ciascuna di esse devono raggiungere.Tali target minimi sono stati poi definiti a partire da un trade-off tra gli obiettivi prestazionali richiesti dall’azienda e i valori di prestazione medi ottenuti dai fornitori relativi ad una stessa classe. A partire dai valori prestazionali ottenuti di partenza (AS-IS), si è deciso di analizzare nello specifico la situazione di quattro differenti fornitori ai quali, sono state dapprima individuate le cause che determinavano un basso livello prestazionale e a partire da queste, trovate e poi applicate delle soluzioni migliorative al fine di elevare il livello prestazionale iniziale (TO-BE). I risultati ottenuti hanno permesso di dimostrare quanto sia migliorativo avere un sistema di monitoraggio continuo del livello di prestazione di fornitura che permetta dunque, qualora si registrino dei valori non soddisfacenti, di individuare delle soluzioni al fine di agevolare la fornitura e di conseguenza evitare ritardi di produzione.
Resumo:
Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.
Resumo:
Le stelle nate nelle galassie satelliti accresciute dalla MW durante il suo processo evolutivo, sono oggi mescolate nell'Alone Retrogrado della nostra Galassia, ma mantengono una coerenza chimica e dinamica che ci consente di identificarle e di ricostruirne l'origine. Tuttavia, investigare la chimica o la dinamica in maniera indipendente non è sufficiente per fare ciò. L'associazione di stelle a specifici eventi di merging basata esclusivamente sulla loro posizione nello spazio degli IoM può non essere univoca e portare quindi ad identificazioni errate o ambigue. Allo stesso tempo, la composizione chimica delle stelle riflette la composizone del gas della galassia in cui le stelle si sono formate, ma galassie evolutesi in maniera simile sono difficilmente distinguibili nei soli piani chimici. Combinare l'informazione chimica a quella dinamica è quindi necessario per ricostruire in maniera accurata la storia di formazione ed evoluzione della MW. In questa tesi è stato analizzato un campione di 66 stelle dell'Alone Retrogrado della MW (localizzate nei dintorni solari) combinando i dati fotometrici di Gaia e quelli spettroscopici ottenuti con PEPSI@LBT. L'obiettivo principale di questo lavoro è di associare univocamente le stelle di questo campione alle rispettive galassie progenitrici tramite l'utilizzo coniugato delle informazioni chimiche e cinematiche. Per fare questo, è stata prima di tutto ricostruita l'orbita di ognuna delle stelle. In seguito, l'analisi degli spettri dei targets ha permesso di ottenere le abbondanze chimiche. L'identificazione delle sottostrutture è stata effettuata attraverso un'analisi chemo-dinamica statisticamente robusta, ottenuta tramite l'applicazione di un metodo di Gaussian Mixture Model, e l'associazione finale ai relativi progenitori, nonchè la loro interpretazione in termini di strutture indipendenti, è stata eseguita accoppiando questa informazione con la composizione chimica dettagliata di ogni stella.
Resumo:
La presente sperimentazione ha avuto come obiettivo la formulazione di oli aromatizzati, ottenuti mediante la tecnica di co-frangitura delle olive con arancia, sottoprodotti dell’arancia, melagrana e pepe nero. In questo lavoro di tesi viene affrontata la definizione di olio aromatizzato, cioè un olio d’oliva arricchito con uno o più composti aromatici, come oli essenziali, spezie, erbe aromatiche o frutti. Inizialmente vengono esposte le principali tecniche di aromatizzazione. Successivamente vengono trattati i principali parametri di qualità per la classificazione merceologica degli oli, i composti volatili e i composti fenolici che caratterizzano questi prodotti, ed infine viene descritta la valutazione sensoriale degli oli d’oliva. I campioni di olio prodotti sono stati sottoposti ad analisi per la valutazione dello stato idrolitico, mediante determinazione titrimetrica dell’acidità libera e del contenuto di composti ad attività riducente tramite determinazione spettrofotometrica con reattivo di Folin-Ciocalteu. Infine, sono stati studiati i composti volatili degli oli aromatizzati prodotti, identificando e quantificando i principali attributi sensoriali mediante analisi descrittiva effettuata da un gruppo di assaggiatori addestrati. Dalle analisi eseguite sui campioni si è potuto riscontrare come gli oli prodotti non abbiano problemi di degradazione idrolitica, possiedano un contenuto medio/alto di composti fenolici e siano caratterizzati dalla presenza di attributi secondari positivi.
Resumo:
L’innovazione tecnologica nell’ambito alimentare ha portato alla realizzazione di nuovi prodotti al fine di far fronte all’incremento demografico e ai numerosi problemi che ne conseguono, come ad esempio quello della sostenibilità ambientale. Tra questi prodotti troviamo sia alternative che si basano su proteine già esistenti in natura, come ad esempio prodotti a base di insetti, sia nuove fonti di proteine prodotte in laboratorio: questo è il caso della carne coltivata in vitro, tessuto muscolare ricavato a partire da colture cellulari in grado di ridurre drasticamente il numero di animali allevati e macellati. In questo elaborato vengono discusse le principali tecnologie produttive per la realizzazione della carne in vitro e si analizzano gli aspetti critici legati all’accettazione di questo tipo di prodotti da parte dei consumatori. Per valutare l’opinione dei consumatori è stato somministrato un sondaggio che includeva 12 brevi domande a 343 potenziali consumatori di carne coltivata . Dall’analisi dei dati raccolti, emerge una generale “neofobia” nei confronti della carne coltivata, che può essere causata da motivi legati alla scarsa informazione e alla conseguente mancanza di fiducia riguardo alle tecnologie produttive innovative. Un importante aspetto emerso nel corso dello studio è rappresentato dalla differenza delle opinioni di consumatori appartenenti a diverse categorie, come ad esempio i consumatori abituali di prodotti a base di carne e, dall’altra parte, le persone che hanno eliminato dalla loro dieta abituale i prodotti di origine animale. È essenziale comprendere le radici della neofobia che le diverse categorie di consumatori possono manifestare nei confronti di alimenti innovativi come la carne coltivata, per realizzare un’efficace strategia comunicativa che faccia leva sulle maggiori barriere psicologiche delle persone, sostituendole con informazioni riguardo ai benefici che una transizione verso questo tipo di prodotti potrebbe apportare.