999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo della tesi è mettere a punto una metodologia che permetta di eseguire simulazioni sul comportamento di un serbatoio pressurizzato in alluminio di una vettura supersportiva ibrida.Verrà analizzato il sistema costituito dal serbatoio e da quattro bretelle di fissaggio, così da poter simulare differenti metodi di montaggio del serbatoio e valutare le tensioni generate dal fissaggio stesso. Lo strumento di lavoro utilizzato è ANSYS Mechanical, un software incluso nel pacchetto ANSYS Workbench che implementa un metodo di calcolo numerico agli elementi finiti. Per validare il modello sono stati testati in pressione due serbatoi, che e successivamente sono stati scansionati: la correlazione tra i dati sperimentali e le simulazioni ha mostrato che il modello, seppur semplificato, risulta sufficientemente accurato. Dopo i riscontri positivi avuti dalla validazione, sono stati applicati al modello sia carichi statici che ciclici, al fine di esprimere un giudizio sulla resistenza strutturale statica e a fatica del serbatoio. Successivamente, l’individuazione dei principali parametri di interesse ha consentito di effettuare la parametrizzazione del modello e l’ottimizzazione dei parametri. Ciò ha permesso di elaborare ulteriori considerazioni, sulla base delle quali sono stati forniti gli input di progettazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questo documento è illustrare quali siano stati i metodi di studio, le soluzioni adottate ed i risultati ottenuti durante la progettazione del sistema di accumulo per il prototipo di motocicletta da corsa elettrica “Alpha Leonis”, con cui la squadra corse dell’Università di Bologna UniBo Motorsport ha partecipato alla V edizione del campionato mondiale studentesco MotoStudent. Inizialmente verrà descritto il contesto della competizione e verranno analizzati i vincoli regolamentari che influiscono sulla realizzazione del componente in oggetto. In seguito verrà mostrata la vera e propria fase di progettazione nella quale, dopo aver effettuato prove di caratterizzazione sulla singola cella, sono stati realizzati gli elementi strutturali ed i sistemi di controllo e monitoraggio. La parola d’ordine in questa fase è “motorsport”, che raccoglie in sé la volontà di creare un componente tecnologicamente all’avanguardia che, oltre a garantire l’autonomia necessaria, ottimizzi il laptime e porti il prototipo in testa alla classifica. È questo il motivo per cui il sistema di accumulo descritto nella seguente trattazione viene definito come “ad alta densità”, ossia con target di energia e potenza per unità di massa superiori alle alternative commerciali attualmente disponibili sul mercato. Infine, per verificare la qualità e l’efficacia del lavoro svolto, verranno descritti i test sul banco a rulli ed in pista che hanno dimostrato il corretto funzionamento del componente e che sono stati sfruttati per completare l’ottimizzazione del sistema di controllo in vista dell’evento finale ad Aragòn Motorland.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le alternative proposte per la riduzione delle emissioni di CO2, le tecniche di Carbon Capture si presentano come un’efficace soluzione per il breve e medio termine. Fra queste, l’adsorbimento su fase solida per la rimozione di CO2 da correnti gassose si prospetta come una valida alternativa rispetto al convenzionale assorbimento ad umido. Questo lavoro di tesi si è occupato della sintesi di un composito a base geopolimerica presso l’ISTEC/CNR di Faenza, da impiegare per l’adsorbimento di CO2 a bassa temperatura, e dell’analisi del suo comportamento in regime di adsorbimento dinamico. Tale materiale è stato sintetizzato tramite attivazione con soluzione alcalina di metacaolino 1200S addizionato con polveri di zeolite Na13X. Esso costituisce una opzione interessante per la cattura di CO2, mostrando capacità di adsorbimento superiori a 1 mmol/g per concentrazioni di CO2 del 14% (a pressione atmosferica), simili a quelle presenti in molti processi industriali. Le prestazioni in regime dinamico risultano inoltre simili a quelle registrate nel regime statico. Le prove sperimentali hanno evidenziato la criticità della rigenerazione del materiale, in particolare riguardo all’eliminazione dell’acqua. Una temperatura di 130°C si mostra adatta per ottenere un’elevata rigenerazione del materiale, con rimozione sia di CO2 che dell’umidità adsorbita. Dalle prove svolte è risultato evidente come non sia conveniente operare con desorbimenti a temperatura ambiente e pressione atmosferica, ma sia necessario operare combinando swing di pressione e temperatura. È stato inoltre valutato l’effetto di una più bassa temperatura di adsorbimento (2°C), che porta ad un aumento della capacità del materiale. Sviluppi futuri in questo campo potrebbero essere la produzione di monoliti geopolimerici a porosità strutturate tramite tecniche innovative quali il freeze-casting e l’utilizzo di compositi integrati con additivi che ne migliorino le performance in termini di conducibilità termica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ultimo periodo, si è sviluppato un forte interesse nella produzione di materiali a base proteica per il settore biomedicale e cosmetico, in particolare per il rilascio controllato di farmaci. In questo studio sono stati sviluppati, tramite elettrofilatura, dei materiali nanocompositi, costituiti da una matrice di cheratina, ottenuta da lana, e PLA caricata con grafene ossido e con Rodamina-B, un indicatore particolarmente usato in chimica analitica per valutare il rilascio di determinati sistemi. Tali materiali, caratterizzati morfologicamente e strutturalmente, sono stati testati in vitro come sistemi per il rilascio controllato di farmaci, usando la Rodamina per la maggiore facilità di rilevazione, valutando soprattutto l’influenza del grafene ossido sull’entità del rilascio. I risultati ottenuti hanno evidenziato come l’ossido di grafene influisca in maniera significativa sull’entità del rilascio, rallentando la quantità di Rodamina rilasciata nelle prime 48 ore. Studi per l’applicazione di questi materiali nell’ingegneria tissutale e nella medicina rigenerativa saranno oggetto di studi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La flavescenza dorata è una malattia di interesse globale che causa ogni anno ingenti danni alle coltivazioni e di conseguenza comporta sostanziali perdite economiche in viticoltura. Il primo obiettivo che questo elaborato si è posto è stato fornire uno strumento utile a identificare la malattia anche prima che essa manifesti i suoi sintomi; in quest’ottica la spettroscopia si è rivelata particolarmente promettente. In secondo luogo si è valutata se la distanza dal bosco potesse essere un fattore di incidenza della flavescenza dorata. Per quanto riguarda il primo aspetto, lo scopo è stato raggiunto con l’identificazione di diversi composti biochimici che potrebbero essere sfruttati come indicatori per l’identificazione del fitoplasma; anche la presenza di un’area boschiva potrebbe incidere nella diffusione della flavescenza dorata. È bene sottolineare che l’elaborato è stato svolto con una prospettiva agroecologica, cercando valide alternative ai metodi di lotta tradizionali che prevedono l’uso di composti chimici e lo sfalcio del cotico erboso, utile a garantire la sopravvivenza e la funzionalità di un ambiente agroecologico. Le conclusioni tratte stimolano indagini future, per approfondire le pionieristiche tematiche investigate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In these last years a great effort has been put in the development of new techniques for automatic object classification, also due to the consequences in many applications such as medical imaging or driverless cars. To this end, several mathematical models have been developed from logistic regression to neural networks. A crucial aspect of these so called classification algorithms is the use of algebraic tools to represent and approximate the input data. In this thesis, we examine two different models for image classification based on a particular tensor decomposition named Tensor-Train (TT) decomposition. The use of tensor approaches preserves the multidimensional structure of the data and the neighboring relations among pixels. Furthermore the Tensor-Train, differently from other tensor decompositions, does not suffer from the curse of dimensionality making it an extremely powerful strategy when dealing with high-dimensional data. It also allows data compression when combined with truncation strategies that reduce memory requirements without spoiling classification performance. The first model we propose is based on a direct decomposition of the database by means of the TT decomposition to find basis vectors used to classify a new object. The second model is a tensor dictionary learning model, based on the TT decomposition where the terms of the decomposition are estimated using a proximal alternating linearized minimization algorithm with a spectral stepsize.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo spazio pubblico urbano potrebbe essere visto come una scenografia mutevole in cui la società rappresenta sé stessa. Soprattutto nei centri storici della città, si perde l’identità di luoghi specifici, così come la coscienza dei cittadini, che porta ad un uso improprio dello spazio causato principalmente dall’assenza di una cultura architettonica. In questo senso, l’obiettivo finale dell’architettura è quello di essere educativa nello spiegare il motivo per cui è stata concepita. La tesi di ricerca tenta di studiare la dimensione educativa e la forza che l’architettura ha nell’influenzare comportamenti spontanei e non spontanei. L’obiettivo è trovare metodi di progettazione e legali in grado di migliorare gli spazi pubblici in termini di qualità della vita dei suoi utenti. Il riconoscimento e la trasmissione dell’architettura, attraverso l’uso dell’architettura stessa, tenta di arginare un’assenza di cultura architettonica e un uso sempre più improprio dei suoi spazi. La domanda a cui, dunque, si tenta di rispondere è: Può la dimensione evocativa dell’architettura stimolare processi di rigenerazione urbana? La tesi si sviluppa in tre parti: la prima presenta alcune riflessioni teoriche sulla progettazione dello spazio pubblico alle quali fanno riferimento altrettanti progetti portati avanti nei mesi di ricerca Dai workshops realizzati sono emerse diverse problematiche riguardo l’effettiva realizzazione di tali progetti evidenziando soprattutto una carenza di tipo normativo che fa “cadere” gli entusiasmi legati al completamento delle opere per la comunità e di conseguenza decade il valore teorico dei progetti. Per questo motivo, nella seconda parte, si tenta di approfondire il tema legislativo per trovare soluzioni alternative agli arresti burocratici che sovente disincentivano le azioni corali della cittadinanza. La terza parte si concentrerà su un progetto per un’area di Bologna da riqualificare, i Prati di Caprara, per i quali si sfrutteranno tutte le conoscenze teoriche precedentemente esposte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca ha avuto come obbietivo studiare come stia avvenendo l'adattamento dei tradizionali laboratori fotochimici di film alle tecniche digitali attraverso l'analisi delle politiche di preservazione, del restauro, dei costi relativi all’acquisto di nuove apparecchiature e della migrazione ai nuovi media presso il British Film Institute (BFI), lo Svenska Filminstitutet (SFI), l’Eye Filmmuseum, L'Immagine Ritrovata e ANIM - Cinemateca Portuguesa. A questo scopo è stato utilizzato il metodo dello studio di caso, in cui sono state effettuate interviste con gestori e tecnici delle istituzioni citate al fine di rispondere al quesito della presente ricerca: quali sono l’impatto e le implicazioni di questo adattamento? Quali sono i risultati raggiunti con le nuove attrezzature e metodi di restauro e preservazione? Per arrivare a rispondere a queste domande lo studio è stato diviso in due sezioni. Nella prima parte, sono riportate le interviste svolte presso SFI, BFI, Eye e L'Immagine Ritrovata, realizzate al fine di ottenere dati che permettessero di formulare un'intervista più completa e approfondita. Successivamente, questa intervista più dettagliata è stata condotta con una sola istituzione, la Cinemateca Portuguesa. Pertanto, nella seconda parte dello studio di caso, sono state realizzate interviste a tecnici e dirigenti di ANIM - Cinemateca Portuguesa e dei suoi laboratori partner. L'analisi dei risultati comprende tutte le informazioni provenienti dalle cinque istituzioni intervistate. È stato notato che l'adattamento al digitale ha effettivamente apportato miglioramenti nella preservazione e nel recupero del materiale fotochimico, ma ciò ha anche fatto sorgere alcuni dilemmi nei laboratori. C'è apprensione per la scarsità di materiale della filiera fotochimica e per una sua ipotetica fine nel prossimo futuro, poiché non ci sono ancora sufficienti conoscenze sulla filiera digitale e sul comportamento di questi media con il passare del tempo. Gli intervistati hanno altresì dimostrato positività riguardo alle tecnologie digitali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi indaga l’applicazione del principio di autonomia del diritto UE nella giurisprudenza della Corte di giustizia. In particolare, il lavoro mira ad analizzare le modalità attraverso cui il principio viene adoperato come parametro di compatibilità, ai fini dello scrutinio della Corte, in quei casi riguardanti il rapporto tra giurisdizioni di diritto internazionale e diritto dell’Unione. Una volta delineato il contesto teorico di partenza, concernente il significato dell’autonomia del diritto UE all’interno del “quadro costituzionale” dell’Unione, si passa all’analisi, caso per caso, della prassi giurisprudenziale, al fine di individuare ed estrapolare gli elementi costanti nei casi. La disamina svolta parte da pronunce celebri, tra cui il parere 1/91, Kadi e il parere 2/13, in cui il principio nasce e si sviluppa. Successivamente, si passa alle pronunce più recenti, componenti la c.d. saga Achmea, riguardante la compatibilità con il principio di autonomia dei meccanismi ISDS. I risultati raccolti nell’analisi vengono sintetizzati in modo da ricostruire un test di compatibilità unitario e astratto, composto da tre elementi. Si arriva così, per via induttiva, all’elaborazione di un modello idoneo a spiegare le modalità di applicazione del principio di autonomia come parametro di compatibilità. Sulla scorta di ciò vengono formulate considerazioni e riflessioni concernenti le principali implicazioni per l’ordinamento UE e per i suoi attori, che derivano dal principio di autonomia e dal suo utilizzo giurisprudenziale. Infine, si prende in considerazione una visione del principio di autonomia alternativa a quella emersa nel corso della trattazione e se ne valuta il potenziale impatto sulla concezione e sull’applicazione del principio stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Cherenkov Telescope Array (CTA) will be the next-generation ground-based observatory to study the universe in the very-high-energy domain. The observatory will rely on a Science Alert Generation (SAG) system to analyze the real-time data from the telescopes and generate science alerts. The SAG system will play a crucial role in the search and follow-up of transients from external alerts, enabling multi-wavelength and multi-messenger collaborations. It will maximize the potential for the detection of the rarest phenomena, such as gamma-ray bursts (GRBs), which are the science case for this study. This study presents an anomaly detection method based on deep learning for detecting gamma-ray burst events in real-time. The performance of the proposed method is evaluated and compared against the Li&Ma standard technique in two use cases of serendipitous discoveries and follow-up observations, using short exposure times. The method shows promising results in detecting GRBs and is flexible enough to allow real-time search for transient events on multiple time scales. The method does not assume background nor source models and doe not require a minimum number of photon counts to perform analysis, making it well-suited for real-time analysis. Future improvements involve further tests, relaxing some of the assumptions made in this study as well as post-trials correction of the detection significance. Moreover, the ability to detect other transient classes in different scenarios must be investigated for completeness. The system can be integrated within the SAG system of CTA and deployed on the onsite computing clusters. This would provide valuable insights into the method's performance in a real-world setting and be another valuable tool for discovering new transient events in real-time. Overall, this study makes a significant contribution to the field of astrophysics by demonstrating the effectiveness of deep learning-based anomaly detection techniques for real-time source detection in gamma-ray astronomy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.