709 resultados para Alte Pinakothek.
Resumo:
Le Social Street sono gruppi di vicini di casa che vogliono ricreare legami di convivialità avendo notato un indebolimento delle relazioni sociali nei loro quartieri. Nascono come gruppi online, tramite la piattaforma Facebook, per materializzarsi in incontri offline andando a costruire legami conviviali grazie pratiche di socialità, inclusività e gratuità. Questa Tesi ha come obiettivo l’analisi dei profili socio-demografici degli Streeter e dei quartieri coinvolti per comprendere come sia possibile creare convivialità e come la variabile urbana intervenga in questi processi. Inoltre, si vuole comprendere le dinamiche di attaccamento al quartiere, gli interessi portati avanti dagli Streeter, il loro profilo civico e il posizionamento di quest’esperienza rispetto all’associazionismo tradizionale. Per perseguire l’obiettivo della ricerca, sono state studiate le tre città che vedono la maggiore presenza di Social Street: Milano, Bologna, Roma. La ricerca ha previsto sia un’analisi degli Streeter grazie a un questionario online replicato in tutti i contesti. Inoltre, sono state realizzate 131 interviste ad amministratori e fondatori di Social Street e condotte osservazioni etnografiche e netnografiche. I risultati mostrano come gli Streeter siano appartenenti alle classi medio-alte, tra trenta e cinquanta anni, che hanno sperimentato la mobilità tra un quartiere e l’altro o tra diversi contesi nazionali ed internazionali e trovano nelle Social Street un modo per creare legami di vicinato che hanno perso nei loro trasferimenti. Gli stessi quartieri dove si diffondono le Social Street sono agiati e vi è una buona corrispondenza tra Streeter e modello della centralità sociale elaborato da Milbrath (1965) per cui anche la partecipazione civica è molto sentita tra gli aderenti alle Social Street. Il contributo di questa Tesi al dibattito sociologico risiede nell’aver offerto un’analisi empirica di un’azione collettiva a livello urbano, quella delle Social Street, mostrando come vi sia circolarità tra azione e contesto grazie all’azione mutualistica conviviale.
Resumo:
I veicoli ad alte prestazioni sono soggetti ad elevati carichi per piccoli intervalli di tempo. Questo comporta diverse criticità sulle componenti che costituiscono la vettura: una di queste è la pinza freno. Al fine di renderla performante è necessario il possesso di due proprietà. In primo luogo, la pinza freno deve essere il più leggera possibile poiché essa conferisce un'inerzia nella risposta della sospensione del veicolo, procurando il distacco dello pneumatico dal suolo e causando perdita di aderenza. In secondo luogo, è necessario contenere le deformazioni della pinza freno garantendo un determinato feeling per il pilota. Il compito del progettista è ottimizzare questi due parametri che hanno effetti antitetici. Questa difficoltà porta il progettista a creare design molto complessi per raggiungere l’ottimale e non sempre le geometrie ottenute sono realizzabili con tecnologie convenzionali. Questo studio riguarda il miglioramento prestazionale di una pinza freno costruita con una lega di alluminio 7075-T6 e lavorato dal pieno. Gli obbiettivi sono quello di produrre il nuovo corpo in titanio TI6Al4V, dal momento che le temperature di esercizio portano a grandi decadute di caratteristiche meccaniche dell’alluminio, contenere il più possibile la massa a fronte dell’aumento di densità di materiale e ovviamente limitare le deformazioni. Al fine di ottenere gli obbiettivi prefissati sono utilizzati metodi agli elementi finiti in diverse fasi della progettazione: per acquisire una geometria di partenza (ottimizzazione topologica) e per la validazione delle geometrie ottenute. Le geometrie ricavate tramite l’ottimizzazione topologica devono essere ricostruite tramite software CAD affinché possano essere ingegnerizzate. Durante la modellazione è necessario valutare quale tecnologia è più vantaggiosa per produrre il componente. In questo caso studio si utilizza un processo di addizione di materiale, più specificatamente una tecnica Selective Laser Melting (SLM).
Resumo:
I processi di riduzione del 5-idrossimetilfurfurale (HMF) sono generalmente condotti mediante processi che utilizzano calore e alte pressioni di H2. Una via alternativa prevede l’applicazione di processi elettrochimici, i quali richiedono condizioni più blande e non necessitano di H2. Il lavoro di tesi qui presentato si concentra sullo studio della elettoriduzione del 5-idrossimetilfurfurale a 2,5-bis(idrossimetil)furano, tramite l’utilizzo di catalizzatori basati su schiume 3D a cella aperta di Cu, sopra le quali viene depositato Ag tramite elettrodeposizione. La caratterizzazione elettrochimica è stata condotta tramite voltammetrie a scansione lineare fatte in tampone borato 0,5M e in HMF, seguite da cronoamperometrie (CA) e cronopotenziometrie (CP); inoltre sono stati valutati l’effetto dei parametri di reazione, quali concentrazione iniziale di reagente, potenziale applicato e densità di corrente applicata sulla conversione, selettività ed efficienza faradica. Le prove effettuate a due diverse concentrazioni di HMF (0,02M e 0,05M), con potenziale di -1,3V vs SCE, mostrano che all’aumentare della concentrazione di reagente si ha un calo della selettività in BHMF. Mantenendo la concentrazione a 0,05M e variando il potenziale applicato, si è osservato un aumento importante della selettività in BHMF a potenziali meno catodici e un calo della conversione a potenziali più catodici; la prova a -1,25V vs SCE fornisce i migliori risultati, tuttavia il tempo di reazione a questo potenziale è molto elevato, portando ad un netto calo della produttività. All’aumentare della densità di corrente si osserva un aumento della selettività in BHMF e una riduzione della conversione, mentre la FE è stabile.
Resumo:
Il teff (Eragrostis tef) è uno pseudocereale originario dell’Etiopia che recentemente si sta diffondendo in vari Paesi. Infatti presenta numerose caratteristiche positive (buon contenuto di fibra e composti fenolici, indice glicemico ridotto, assenza di glutine) che potrebbero renderlo adatto alla formulazione di alimenti funzionali o arricchiti, destinati a categorie della popolazione con particolari esigenze (diabetici, celiaci, neonati). I dati attualmente disponibili riguardo il profilo fenolico del teff sono estremamente carenti. Pertanto, lo scopo di questa tesi è la determinazione dei composti fenolici liberi e legati in una farina di teff, mediante la combinazione della cromatografia liquida ad alte prestazioni e la spettrometria di massa con analizzatore a tempo di volo (HPLC-ESI-TOF-MS). L’estrazione dei fenoli liberi e legati dal campione di farina è stata condotta seguendo il metodo messo a punto da Verardo et al. (2011). Dall'analisi dei rispettivi base peak chromatogram sono stati individuati 15 composti fenolici nell'estratto solubile e 5 nell'estratto insolubile. I fenoli liberi riscontrati sono esclusivamente flavonoidi: 11 derivati dall'apigenina, 2 derivati dalla luteolina e 2 composti acetilati derivati dalla vitexina, identificati per la prima volta nella farina di teff. L'estratto insolubile risulta composto da acidi fenolici, rappresentati dall'acido ferulico e i suoi derivati. Non è stato possibile effettuare la determinazione dei composti fenolici totali mediante saggio al reattivo di Folin-Ciocalteu a causa dell’intorbidimento dell’estratto in fase di diluizione: questo ha confermato il limite di tale metodologia, sebbene ampiamente utilizzata, nella determinazione dei composti fenolici.
Resumo:
in questo lavoro di tesi verrà fornita dapprima una descrizione degli oggetti che andremo a studiare, e cioè i nuclei galattici attivi (AGN), con un richiamo alle strutture più importanti di cui si costituiscono i loro sottogruppi: Quasar e radiosorgenti. Saranno forniti i segni distintivi con cui poter riconoscere queste forme di sorgenti radio e verrà fornito un modello che consenta di concepire il ciclo vitale radiativo a cui sono destinati tali classi di radiogalassie. Si vedrà che il tipo di radiazione emessa è prevalentemente non termico, anch’essa vista come una loro caratteristica peculiare. Si darà quindi una descrizione di questo meccanismo di radiazione ,che corrisponde all’emissione di sincrotrone, e si analizzeranno, facendo riferimento a questa base teorica, dati provenienti da una particolare tipologia di radiosorgenti: le “High Frequency Peakers” (HFP) che, come si evince dal nome stesso, rappresentano delle sorgenti con uno spettro di radiazione con picco riscontrabile alle alte frequenze. Si studieranno i dati raccolti dal catalogo TGSS a 150MHz con la speranza di avere riscontri tali da poter confermare o rigettare il modello evolutivo che prendiamo in considerazione per descrivere il ciclo vitale di questa classe di oggetti astronomici e di cui daremo spiegazione nelle prossime pagine.
Resumo:
Dando continuità all’attività di ricerca intrapresa durante il mio precedente tirocinio presso il Dipartimento di Ingegneria Industriale DIN di Bologna, lo scopo della mia tesi è stato quello di chiarire i meccanismi di stabilità di fase della lega ad alta entropia CoCrFeMnNi ed esplorare la sua natura metastabile alle medio-alte temperature (tra i 450-1150°C). Nell’ottica di possibili future applicazioni industriali, è stato inoltre valutato l’effetto che la produzione via Additive Manufacturing può avere su proprietà e comportamenti delle leghe ad alta entropia. Sperimentalmente sono state fatte importanti osservazioni, a volte in contrasto con la letteratura precedente, che aprono la strada ad ulteriori e più specifiche indagini verso la comprensione dei complessi meccanismi che recentemente hanno reso queste leghe così interessanti per la ricerca a livello mondiale.
Resumo:
Il presente progetto di Tesi ha come obiettivo il design di nuovi copolimeri statistici bio-based, caratterizzati da idonee proprietà meccaniche e barriera per impieghi come film sottili nell’imballaggio alimentare. I materiali sintetizzati appartengono alla classe dei poliesteri alifatici, caratterizzati dalla facilità di sintesi in assenza di solventi, relativamente economici, caratterizzati da proprietà modulabili in funzione della struttura chimica. Come omopolimero di partenza è stato scelto il poli(butilene trans-1,4-cicloesanoato) (PBCE), un poliestere potenzialmente bio-based con elevata resistenza ad alte temperature, umidità, radiazioni UV e buone proprietà meccaniche e barriera, e, benchè non ancora disponibile in commercio, molto interessante. Esso risulta troppo rigido per la realizzazione di film flessibili. Il PBCE è stato quindi copolimerizzato introducendo l’(1R,3S)-(+)-Acido Canforico, un monomero bio-based ottenibile dalla canfora. L’obiettivo del lavoro è modulare la cristallinità, le proprietà termiche, meccaniche e barriera dell’omopolimero di partenza. Dopo la sintesi, effettuata mediante policondensazione in massa a due stadi, tali copolimeri sono stati sottoposti a caratterizzazioni molecolari, termiche e meccaniche per valutare l’effetto dell’introduzione di comonomero nella catena macromolecolare del PBCE.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Three dimensional (3D) printers of continuous fiber reinforced composites, such as MarkTwo (MT) by Markforged, can be used to manufacture such structures. To date, research works devoted to the study and application of flexible elements and CMs realized with MT printer are only a few and very recent. A good numerical and/or analytical tool for the mechanical behavior analysis of the new composites is still missing. In addition, there is still a gap in obtaining the material properties used (e.g. elastic modulus) as it is usually unknown and sensitive to printing parameters used (e.g. infill density), making the numerical simulation inaccurate. Consequently, the aim of this thesis is to present several work developed. The first is a preliminary investigation on the tensile and flexural response of Straight Beam Flexures (SBF) realized with MT printer and featuring different interlayer fiber volume-fraction and orientation, as well as different laminate position within the sample. The second is to develop a numerical analysis within the Carrera' s Unified Formulation (CUF) framework, based on component-wise (CW) approach, including a novel preprocessing tool that has been developed to account all regions printed in an easy and time efficient way. Among its benefits, the CUF-CW approach enables building an accurate database for collecting first natural frequencies modes results, then predicting Young' s modulus based on an inverse problem formulation. To validate the tool, the numerical results are compared to the experimental natural frequencies evaluated using a digital image correlation method. Further, we take the CUF-CW model and use static condensation to analyze smart structures which can be decomposed into a large number of similar components. Third, the potentiality of MT in combination with topology optimization and compliant joints design (CJD) is investigated for the realization of automated machinery mechanisms subjected to inertial loads.
Resumo:
The Cherenkov Telescope Array (CTA) will be the next-generation ground-based observatory to study the universe in the very-high-energy domain. The observatory will rely on a Science Alert Generation (SAG) system to analyze the real-time data from the telescopes and generate science alerts. The SAG system will play a crucial role in the search and follow-up of transients from external alerts, enabling multi-wavelength and multi-messenger collaborations. It will maximize the potential for the detection of the rarest phenomena, such as gamma-ray bursts (GRBs), which are the science case for this study. This study presents an anomaly detection method based on deep learning for detecting gamma-ray burst events in real-time. The performance of the proposed method is evaluated and compared against the Li&Ma standard technique in two use cases of serendipitous discoveries and follow-up observations, using short exposure times. The method shows promising results in detecting GRBs and is flexible enough to allow real-time search for transient events on multiple time scales. The method does not assume background nor source models and doe not require a minimum number of photon counts to perform analysis, making it well-suited for real-time analysis. Future improvements involve further tests, relaxing some of the assumptions made in this study as well as post-trials correction of the detection significance. Moreover, the ability to detect other transient classes in different scenarios must be investigated for completeness. The system can be integrated within the SAG system of CTA and deployed on the onsite computing clusters. This would provide valuable insights into the method's performance in a real-world setting and be another valuable tool for discovering new transient events in real-time. Overall, this study makes a significant contribution to the field of astrophysics by demonstrating the effectiveness of deep learning-based anomaly detection techniques for real-time source detection in gamma-ray astronomy.
Resumo:
Ad oggi, misurare grandezze fisiche in maniera pratica, distribuita e sostenibile è di grande importanza al fine di poter attivare strategie di digitalizzazione di qualsiasi applicazione: da quelle industriali con robotica collaborativa, fino alla domotica o tecnologia indossabile. La sfida di oggi consiste nel poter creare dei sensori che possano abilitare questi contesti, risultando efficienti, a basso consumo energetico e sostenibili in termini di materiali e componenti utilizzati. L’obiettivo della tesi è infatti quello di valutare una classe innovativa di sensori con principio di funzionamento capacitivo che risultino facili da progettare, fabbricare ed utilizzare. Nello specifico, due tipologie di sensore sono state sviluppate: uno per la misura di forza, l’altro per la misura angolare. Entrambi i dispositivi sono stati realizzati con materiale elastomerico a base di silicone, accoppiato con elettrodi conformi, in un sistema capacitivo deformabile. All’interno di questi sistemi, sono state ricavate delle camere per il contenimento di un fluido dielettrico al fine di poter monitorare lo spostamento del fluido per la misura capacitiva. La tesi riporta le linee guida principali per la progettazione di sensori che utilizzino componenti elastomerici sia conduttori che dielettrici, in combinazione con un fluido per una misura capacitiva. Successivamente, sono riportati tutti gli step di fabbricazione delle due architetture di sensore realizzate, discutendo i vari passaggi ed elencando i materiali utilizzati. Infine, le performance dei due sensori sono valutate sulla base dei risultati di una campagna sperimentale dedicata, eseguita su due setup di banco prova distinti progettati per testare la forza applicata per il primo sensore, e l’angolo di inclinazione per il secondo. Nelle conclusioni viene riportata la valutazione dell’efficienza di questi due sensori, insieme alle evoluzioni future per rendere questa proposta tecnologica affidabile e ad alte prestazioni.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
I cammelli sono tipicamente allevati in paesi con vaste aree desertiche e possono essere impiegati per diversi scopi, tra i quali la produzione di latte, carne, lana, utilizzati nel trasporto, nella corsa, nel turismo, in lavori agricoli o nel mercato della cosmesi. Per quanto riguarda la produzione di latte di cammello, i paesi africani rappresentano circa il 90% dell'intera produzione mondiale, seguiti dai paesi Asiatici. Il latte di cammello (LC), in termini di valori nutritivi, è superiore al latte bovino e piuttosto vicino al latte umano, esso contiene, infatti, alte concentrazioni di composti bioattivi essenziali per la salute umana. Tuttavia, i prodotti alimentari ottenuti dal LC sono ancora molto limitati rispetto a quelli di latte bovino, nonostante essi apportino numerosi benefici sia nutrizionali che per la salute. Le differenze nella composizione, rispetto al latte vaccino, rendono i processi di produzione dei prodotti a base di latte bovino inadatti alla produzione di derivati a base di latte di cammello. Pertanto, una comprensione completa della composizione, dei composti bioattivi e della stabilità al calore è essenziale per preservarne il valore nutritivo intrinseco, ottenendo nel contempo le caratteristiche desiderabili nei prodotti finali. L'attuale utilizzo di LC è molto al di sotto del suo potenziale, questo perché la produzione di prodotti alimentari è molto impegnativa e presenta molti elementi critici. Questa relazione, si concentrerà sulla descrizione della possibile produzione di prodotti alimentari derivati da LC, compreso latte pastorizzato/sterilizzato, agente schiumogeno, polvere, gelato, formaggio, burro e yogurt. Considerando le difficoltà e le conoscenze necessarie per la produzione di prodotti di LC, verranno analizzate le sue proprietà intrinseche: la composizione, il suo valore nutritivo, le funzionalità e la stabilità durante il trattamento termico.
Resumo:
L’obiettivo di questo studio è quello di valutare la stabilità foto-ossidativa di oli vegetali esposti a luce ultravioletta di bassa intensità per tempi brevi (da 5 min a 8 ore); lo scopo è quello di monitorare le prime fasi di ossidazione. Per la realizzazione di questo studio, è stato messo a punto un sistema di foto-ossidazione al fine di poter adottare condizioni di analisi le più ripetibili possibili e al fine di poter escludere il possibile effetto della temperatura. I campioni di olio analizzati nel presente lavoro di ricerca, tre oli raffinati e un olio extravergine di oliva, sono stati posti in provette di vetro trasparente da 20 ml, caricati poi all’interno della camera di ossidazione in gruppi di quattro e lasciati sotto l’effetto della luce ultravioletta per diversi tempi ovvero 0, 5, 10, 20, 30, 60, 240 e 480 minuti. Sono stati presi in considerazione i seguenti parametri qualitativi di analisi per valutare lo stato ossidativo dei nostri campioni, e cioè il numero di perossido, la concentrazione di esanale e il valore di p-anisidina. Dai risultati ottenuti è stato possibile osservare che complessivamente, a livelli di insaturazione e di presenza di antiossidanti naturali differenti, l’impatto dell’esposizione alla luce è stato piuttosto simile. I tre oli raffinati hanno mostrato valori ossidativi più contenuti, mentre per l’olio EVO sono state rilevate concentrazioni più alte sia per i perossidi che per l’esanale. Questo è dovuto alla presenza di alcuni composti ad azione pro-ossidante e composti aromatici che permangono nel prodotto in quanto questo olio non subisce il processo di raffinazione. La p-anisidina per tutte e quattro gli oli testati è rimasta piuttosto costante e lineare nel tempo senza subire considerevoli variazioni. Questo sottolinea il fatto che le condizioni di stress foto-ossidativo impiegate non sono state sufficienti a determinare un aumento significativo dei prodotti di ossidazione secondaria.
Resumo:
La ricerca in campo agroalimentare ha da sempre messo in evidenza l'importanza della conservazione degli alimenti nel tempo. Alcune nuove tecnologie basate sulle alte pressioni, e dunque non termiche, di stabilizzazione ai fini della conservazione, come l’High Hydrostatic Pressure (HHP) o High Pressure Processing (HPP), possono risultare fondamentali nel preservare aspetti microbiologici, qualitativi e nutrizionali dell'alimento. In questo elaborato verranno osservati alcuni aspetti del metaboloma, l’insieme delle molecole di piccola dimensione con funzioni metaboliche, di campioni di Mugil cephalus trattati con HHP. Tali aspetti permetteranno di ottenere informazioni sul profilo amminoacidico e sulla freschezza del pesce. Lo studio del profilo amminoacidico permette di tracciare la tendenza del sapore dello specifico campione analizzato dal momento che ogni amminoacido contribuisce a definire uno specifico gusto fondamentale. La freschezza del pesce sarà descritta attraverso il K index che, tramite lo studio della degradazione dei nucleotidi nel periodo post-mortem, rappresenta uno strumento utile al fine dello studio dei cambiamenti della freschezza nel tempo e secondo la tecnologia applicata. L’analisi del metaboloma del cefalo è stata eseguita mediante la spettroscopia di risonanza magnetica nucleare al protone (1H-NMR) di cui si descrivono i principi fisici nel primo capitolo. Nel secondo capitolo sono descritti i software utilizzati per indentificare le molecole che compongono il metaboloma dei campioni analizzati. Infine, nel terzo capitolo, si valuta l’effetto del trattamento HHP (a 400, 500 e 600MPa) sul profilo amminoacidico e sul K index durante il periodo di conservazione.