999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.
Resumo:
La pratica dell’appassimento fa parte della cultura mediterranea sin dall’era del Neolitico. Tale tecnica veniva praticata anche nell’Antica Grecia e successivamente nelle diverse regioni dell’Impero Romano. Il presente elaborato si propone, attraverso lo studio dello stato dell’arte relativamente ai vini passiti, di illustrare alcune tecniche di vinificazione, approfondire le caratteristiche salienti di questa tipologia di vino e delinearne il posizionamento sul mercato. In particolare, si sono prese in considerazione le tre tecniche di appassimento comunemente utilizzate: appassimento in campo, in fruttaio e in cella. Per quanto concerne l’appassimento in campo, si è fatto un approfondimento in merito agli effetti indotti dalla Botrytis cinerea, muffa nobile la cui presenza sulle uve permette di dar vita a vini botritizzati dalle caratteristiche distintive, come nel caso dell’Albana Passito di Romagna. I metodi di appassimento che prevedono l’utilizzo di un locale apposito (fruttaio e cella) si differenziano per il controllo della temperatura e dell’umidità e quindi il processo di disidratazione dell’acino avviene in tempi più rapidi e con minor rischio di sviluppo di patogeni. Lo sviluppo di queste tecniche come ha impattato sul consumo di vino passito? Negli ultimi anni il consumo di vino sta aumentando, e l’Italia è uno dei principali paesi produttori e consumatori. Il vino passito però, data la sua complessità e le particolari occasioni d’uso, occupa un piccolo spazio in questo scenario ed è caratterizzato da una concentrazione nel consumo delle produzioni locali, faticando a occupare un posto di rilievo sul mercato. Nonostante ciò, vi sono anche casi di successo, come quello dell’Amarone della Valpolicella DOCG, che lasciano ben sperare in uno sviluppo futuro.
Resumo:
Lo scopo di questo lavoro di tesi consiste nella realizzazione di fotocatalizzatori a base di nano-TiO2 per potenziali applicazioni nel campo della depurazione delle acque reflue. Nello specifico sono stati sintetizzati nanocompositi accoppiando nano-TiO2 a due materiali grafitici: ossido di grafene (GO), tramite ultrasonicazione (TGO) e nitruro di carbonio grafitico (g-C3N4), attraverso due tecniche: ultrasonicazione e polimerizzazione termica in situ. Per i compositi TGO lo studio relativo alla sintesi è stato rivolto all’ottimizzazione della percentuale in peso di GO. Per i compositi a base di g-C3N4 lo scopo è stato quello di valutare quale dei due metodi di sintesi fosse il più efficace. I materiali ottenuti sono stati caratterizzati dal punto di vista chimico-fisico (DLS-ELS, XRD, Band Gap, BET, SEM, FT-IR, TGA-DSC) e funzionale. La caratterizzazione funzionale è stata eseguita per valutare le prestazioni fotocatalitiche dei fotocatalizzatori nanocompositi utilizzando, come reazione modello, la fotodegradazione di Rodamina B, sotto luce UV e solare. I risultati hanno messo in luce che la percentuale ottimale di GO, nei compositi TGO, è pari al 16%. Inoltre, è stato osservato un effetto sinergico tra TiO2 e GO dove i nanocompositi TGO hanno mostrato maggiore attività fotocatalitiche rispetto alla singola TiO2. I dati fotocatalitici hanno evidenziato che il metodo ottimale per la preparazione dei compositi a base di g-C3N4 e TiO2, è la polimerizzazione termica in situ a 500°C.
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.
Resumo:
Il fatto che il pensiero sia più rapido della comunicazione verbale o scritta è un concetto ormai consolidato. Ricerche recenti, però, si stanno occupando di sviluppare nuove tecnologie in grado di tradurre l’attività neurale in parole o testi in tempo reale. È proprio questo il campo delle Real-time Silent Speech Brain-Computer Interfaces, ovvero sistemi di comunicazione alternativi, basati sulla registrazione e sull’interpretazione di segnali neurali, generati durante il tentativo di parlare o di scrivere. Queste innovazioni tecnologiche costituiscono un traguardo fondamentale per la vita delle persone con paralisi o con patologie neurologiche che determinano l’inabilità a comunicare. L’obiettivo di questo elaborato è quello di descrivere due applicazioni innovative nell’ambito delle Real-time Silent Speech-BCIs. I metodi di BCI confrontati nel presente elaborato sintetizzano il parlato attraverso la rilevazione invasiva o parzialmente invasiva dell’attività cerebrale. L’utilizzo di metodi invasivi per la registrazione dell’attività cerebrale è giustificato dal fatto che le performance di acquisizione del segnale ottenute sono tali da controbilanciare i rischi associati all’operazione chirurgica necessaria per l’impianto. Le tecniche descritte sfruttano delle Reti Neurali Ricorrenti (RNNs), che si sono dimostrate le più efficaci nel prevedere dati sequenziali. Gli studi presentati in questa tesi costituiscono un passaggio fondamentale nel progresso tecnologico per il ripristino della comunicazione in tempo reale e sono i primi a riportare prestazioni di sintesi paragonabili a quelle del linguaggio naturale.
Resumo:
Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.
Resumo:
Nel corso degli ultimi anni si è assistito ad un aumento di episodi fraudolenti nel settore alimentare. Ciò è vero anche per il settore oleario: per il suo elevato valore economico, nutrizionale e sensoriale, l’olio extra vergine di oliva è un bersaglio perfetto dei frodatori, che realizzano molteplici tipologie di adulterazione. Questo lavoro di tesi si è focalizzato, in particolare, sull’adulterazione dell’olio extra vergine di oliva con olio di semi di girasole. Su campioni preparati in laboratorio per simulare la frode, a partire da due oli extra vergini di oliva addizionati con percentuali diverse di olio di girasole, sono state effettuate determinazioni analitiche utilizzando un sensore spettrale, basato sulla spettroscopia nel vicino infrarosso, seguite da un’elaborazione chemiometrica dei risultati. Lo strumento portatile è stato sviluppato da una start-up olandese presso cui ho svolto il tirocinio curriculare. Il modello di stima risultante dalle risposte fornite dai 16 pixel del sensore ha mostrato una capacità di rilevazione soddisfacente nei confronti di questa adulterazione, conducendo ad un errore medio nella stima della percentuale di olio di girasole aggiunto intorno al 3%. Tale risultato, se verrà confermato da ulteriori analisi grazie alle quali il modello predittivo potrà essere reso più robusto, potrebbe incoraggiare l’utilizzo di questa metodologia analitica come tecnica rapida di screening, facilmente applicabile anche in un contesto industriale, a supporto delle più laboriose e complesse tecniche analitiche tradizionali, nella rilevazione di adulterazioni di oli extra vergini di oliva con oli di semi di girasole.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
La radiazione di sincrotrone è il processo di radiazione più comune nella astrofisica delle alte energie in presenza di elettroni ultrarelativistici in moto in un campo magnetico. Sono attribuibili a questo processo le radio emissioni dei raggi cosmici (elettroni e positroni) della nostra galassia, dei resti di supernovae e delle sorgenti radio extragalattiche. In particolare, questa trattazione si soffermerà sullo studio dell’emissione tramite radiazione di sincrotrone da parte delle pulsar, stelle di neutroni in rapida rotazione e dotate di un campo magnetico, che ad intervalli estremamente regolari (periodo di rotazione) emettono radiazione coerente in regioni coniche allineate con l’asse magnetico, sotto forma di impulsi, secondo un processo che viene denominato ”effetto faro”.
Resumo:
Gli Ultra-High-Energy Cosmic Rays sono dei raggi cosmici-dotati di energia estremamente elevata-che raggiungono la Terra con un bassissimo rateo e dei quali abbiamo pochi dati a riguardo; le incertezze riguardano la loro composizione, la loro sorgente, i metodi di accelerazione e le caratteristiche dei campi magnetici che li deviano durante il loro cammino. L’obiettivo di questo studio è determinare quali modelli di campo magnetico possano descrivere correttamente la propagazione degli UHECRs, andando a fare un confronto con i dati sperimentali a disposizione; infatti, quello che osserviamo è una distribuzione isotropa nel cielo e, di conseguenza, i modelli teorici di propagazione, per poter essere accettati, devono rispecchiare tale comportamento. Sono stati testati nove modelli di campo magnetico tratti da simulazioni cosmologiche, andando a considerare due diverse composizione per i CRs (simil-ferro e simil-protone) e il risultato ha dato delle risposte positive solo per tre di essi. Tali modelli, per cui troviamo accordo, sono caratterizzati da una scala di inomegeneità più ampia rispetto a quella dei modelli scartati, infatti, analizzando il loro spettro di potenza, il maggior contributo è dato da fluttuazioni di campo magnetico su scale di 10 Mpc. Ciò naturalmente, viste anche le poche informazioni riguardo ai campi magnetici intergalattici, ci porta a pensare che campi di questo tipo siano favoriti. Inoltre, per tali modelli, gli esiti sono risultati particolarmente in accordo con i dati sperimentali, considerando CRs con composizione simile al ferro: ciò fa pensare che tale composizione possa essere quella effettiva.
Resumo:
All'interno della tesi si parla dei processi che riguardano i meccanismi di emissione della radiazione da parte di regioni HII (o nebulose). Si inizia trattando il fenomeno della ionizzazione, passando per il modello della Sfera di Stromgren, fino ad arrivare ad un modello modificato di quest'ultimo. Il secondo capitolo tratta di meccanismi di emissione in riga, quindi righe di ricombinazione e righe prodotte dall'eccitazione collisionale. Viene dedicato anche un breve paragrafo alle righe prodotte dalle molecole. Nel terzo capitolo invece si affrontano i meccanismi che generano uno spettro continuo, quindi Bremsstrahlung e l'emissione di corpo grigio dovuta alla presenza di polvere. L'elaborato si conclude con un esempio pratico che dimostra l'importanza che rivestono le regioni HII: la conferma del modello di galassia a spirale della Via Lattea.
Resumo:
Nel campo della meccanica uno dei metodi di fissaggio maggiormente utilizzati è il fissaggio per attrito con elementi filettati. Il collegamento tra gli elementi è generato dall’accoppiamento tra i filetti di vite e madrevite, che, una volta precaricati, aderiscono impedendo il movimento reciproco tramite la forza di attrito. Uno dei problemi, però, che si riscontra sull’utilizzo dei giunti filettati è relativo alla resistenza a fatica. Precisamente, gli organi in esame presentano una geometria altamente intagliata: infatti, i filetti, fungono da centri di intensificazione degli sforzi. Per mitigare il fenomeno occorrerebbe diminuire la rigidità della vite, ma ciò comporterebbe un rischio di perdita del precarico con conseguente riduzione di efficacia del collegamento. Si è mostrato, tuttavia, che vi è un possibile metodo alternativo per migliorare la resistenza a fatica delle viti: si è notato che le viti snervate, tramite un serraggio, presentano un limite a vita finita maggiore rispetto a quelle standard. Lo scopo di questo lavoro di tesi è di oggettivare l’incremento del limite di fatica generato da uno snervamento, verificare l’effettivo miglioramento anche sulla vita infinita e dedurne le motivazioni, mediante prove. A tal fine, sono state prese in considerazione diverse tipologie di provini, nello specifico viti M8 di classe 8.8 e 12.9, per verificare l’influenza della resistenza meccanica sull’incremento del limite. I test prevedono anche una breve parentesi sui benefici portati dall’utilizzo di un dado rialzato, in particolare viene mostrato come l’aumento del numero di filetti in presa vada ad esaltare il fenomeno analizzato. Una volta oggettivato l’aumento di resistenza a fatica e avanzate alcune ipotesi sulle cause del fenomeno, è stato sviluppato un modello agli elementi finiti, con semplificazioni volte a ridurre il tempo di calcolo, al fine di studiare la distribuzione degli stress in fase di serraggio per validare le assunzioni avanzate.
Resumo:
Le fibre ottiche sono materiali costituiti al loro interno da fibre di vetro o filamenti polimerici. Esse attualmente trovano grande impiego nel campo della telecomunicazione, ma è assai importante lo sviluppo che stanno ottenendo nel campo del monitoraggio strutturale. L’obiettivo del lavoro descritto in questo elaborato finale è di riuscire a sviluppare un programma in grado di computare una simulazione analitico-parametrica riguardante i segnali restituiti da un sensore in fibra ottica. In particolare, sono stati creati due codici (Codice 1 e Codice 2) per sostenere un Codice Esistente. Quest’ultimo prende in input dei dati sperimentali che, invece di essere ottenuti da prove in laboratorio, sono prodotti in uscita dal Codice 1, il quale simula prove a fatica o statiche in provini di diverso materiale. Attraverso l’analisi di questi dati, il codice finale crea delle curve probabilistiche in grado di asserire con quanta probabilità e con quale confidenza è possibile valutare i risultati esplicitati dallo strumento di rilevazione, che in questo caso è un sensore in fibra ottica. D’altra parte, il Codice 2 analizza le conseguenze nella Probability of Detection e confidenza al variare dei parametri maggiormente influenti nel modello.
Resumo:
L’anisotropia magnetica di film sottili ferromagnetici è un parametro fondamentale nel campo della spintronica. Recenti lavori hanno dimostrato che la formazione di un’interfaccia tra film sottili ferromagnetici e materiali organici è in grado di modificare, l’anisotropia magnetica del costituente inorganico. Questa specifica interfaccia è stata definita spinterface ed è di grande interesse in un’ottica di ingegnerizzazione delle proprietà magnetiche di dispositivi spintronici. Pertanto, in questo lavoro di tesi ho analizzato l’anisotropia magnetica di un film policristallino di Cobalto ricoperto da una molecola organica largamente utilizzata in dispositivi spintronici e optoelettronici, la Gallio-chinolina (Gaq3), con l’obiettivo di verificare il ruolo della molecola nella definizione delle proprietà magnetiche dello strato di Cobalto. Per valutare l’impatto della formazione di spinterface, ho confrontato i risultati sperimentali con quelli ottenuti per un bistrato di riferimento Cobalto/Alluminio (Co/Al). Per comprendere i risultati sperimentali introdurrò nel primo capitolo i concetti fondamentali del magnetismo di film sottili, in particolare i vari contributi di anisotropia magnetica, il concetto di dominio magnetico e il modello di Stoner Wohlfarth. Il secondo capitolo verrà dedicato alla descrizione del concetto di spinterface e come questa interfaccia possa modificare le proprietà magnetiche dei film sottili. Nel terzo capitolo verranno descritte le tecniche di deposizione in Ultra Alto Vuoto con cui sono stati realizzati i bistrati Co/Gaq3 e Co/Al mentre nel quarto capitolo descriver`o il funzionamento del magnetometro MOKE, lo strumento con cui ho studiato l’anisotropia magnetica dei campioni prodotti. I dati sperimentali e la loro discussione saranno presentati nel quinto capitolo dove ho verificato la presenza di effetti di spinterface attraverso l’osservazione di un aumento della coercitività del campione Co/Gaq3.
Resumo:
Il presente elaborato finale si inserisce in un progetto di ricerca, svolto in collaborazione con il gruppo di ricerca di chimica metallorganica e l’azienda Biolchim S.p.A, volto alla sintesi e caratterizzazione di nuovi complessi di zinco, solubili in acqua, da impiegare nel campo agronomico come fertilizzanti. Diversi leganti sono stati studiati per la creazione di chelati di zinco, tra cui acido citrico, amminoacidi quali glicina ed alanina e acido o-idrossimandelico. La stabilità dei diversi complessi sintetizzati è stata studiata in funzione di vari range di pH e temperatura, così da valutarne la resistenza in condizioni simili a quelle reali in suolo. I prodotti solidi sono stati caratterizzati tramite IR-ATR e NMR; i complessi di zinco citrato e zinco-acido o-idrossi mandelico sono stati studiati mediante spettrometria di massa e un’analisi elementare.