332 resultados para Università degli Studi di Macerata
Resumo:
In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.
Resumo:
In questa tesi viene presentato il metodo della parametrice, che è utilizzato per trovare la soluzione fondamentale di un operatore parabolico a coefficienti hölderiani. Inizialmente si introduce un operatore modello a coefficienti costanti, la cui soluzione fondamentale verrà utilizzata per approssimare quella dell’operatore parabolico. Questa verrà trovata esplicitamente sotto forma di serie di operatori di convoluzione con la soluzione fondamentale dell’operatore a coefficienti costanti. La prova di convergenza e regolarità della serie si basa sullo studio delle proprietà della soluzione fondamentale dell’operatore a coefficienti costanti e degli operatori di convoluzione utilizzati. Infine, si applicherà il metodo della parametrice per trovare la soluzione fondamentale di un’equazione di Fokker-Planck sempre a coefficienti hölderiani.
Resumo:
I cambiamenti climatici dovuti all’immissione in atmosfera dei gas serra costringono alla ricerca di possibili soluzioni per la loro riduzione. Una risposta potrebbe essere rappresentata dall’impiego di calcestruzzi geopolimerici in quanto riducono notevolmente l’emissione in atmosfera di anidride carbonica rispetto ai calcestruzzi tradizionali. In letteratura sono numerosi gli studi di calcestruzzi geopolimerici realizzati mediante trattamenti termici applicati dopo le operazioni di confezionamento. Pochissime sono invece le ricerche effettuate su calcestruzzi geopolimerici prodotti senza trattamenti termici; in questa tesi sperimentale si è voluto indagare quest’ultimo tipo di conglomerati. In particolare si è studiato il mix design del calcestruzzo geopolimerico partendo dalla formulazione del calcestruzzo tradizionale. Da subito si è posto il problema di quale agente riduttore di acqua utilizzare. Pertanto è stata predisposta una sperimentazione di diversi tipi di fluidificanti e superfluidificanti su campioni di malta geopolimerica. In seguito sono stati testati diversi conglomerati geopolimerici con propri mix design, derivati in parte da esempi in letteratura, al fine di conseguire un accettabile valore di resistenza meccanica a compressione. Nella prospettiva di un possibile utilizzo in cantiere è stata indagata con particolare attenzione, la lavorabilità delle malte e dei calcestruzzi geopolimerici attraverso prove di consistenza, ponendola in relazione alle malte e i calcestruzzi cementizi. Sono state inoltre analizzate le caratteristiche dei materiali prodotti allo stato indurito, quali densità, assorbimento di acqua, modulo elastico e resistenza meccanica. Infine, è stata analizzata la fattibilità di un possibile utilizzo in cantiere.
Resumo:
Questo lavoro di tesi si inserisce nel recente filone di ricerca che ha lo scopo di studiare le strutture della Meccanica quantistica facendo impiego della geometria differenziale. In particolare, lo scopo della tesi è analizzare la geometria dello spazio degli stati quantistici puri e misti. Dopo aver riportato i risultati noti relativi a questo argomento, vengono calcolati esplicitamente il tensore metrico e la forma simplettica come parte reale e parte immaginaria del tensore di Fisher per le matrici densità 2×2 e 3×3. Quest’ultimo altro non é che la generalizzazione di uno strumento molto usato in Teoria dell’Informazione: l’Informazione di Fisher. Dal tensore di Fisher si può ottenere un tensore metrico non solo sulle orbite generate dall'azione del gruppo unitario ma anche su percorsi generati da trasformazioni non unitarie. Questo fatto apre la strada allo studio di tutti i percorsi possibili all'interno dello spazio delle matrici densità, che in questa tesi viene esplicitato per le matrici 2×2 e affrontato utilizzando il formalismo degli operatori di Kraus. Proprio grazie a questo formalismo viene introdotto il concetto di semi-gruppo dinamico che riflette la non invertibilità di evoluzioni non unitarie causate dall'interazione tra il sistema sotto esame e l’ambiente. Viene infine presentato uno schema per intraprendere la stessa analisi sulle matrici densità 3×3, e messe in evidenza le differenze con il caso 2×2.
Resumo:
In questo lavoro di tesi abbiamo studiato la relazione esistente tra la concentrazione di drogante in un wafer di silicio e l’energia superficiale del suo ossido nativo. La strumentazione utilizzata per la misura dell’energia superficiale è il tensiometro ottico, uno strumento semplice ma efficace per valutare le proprietà chimico-fisiche dell’interfaccia liquido-solido. Il tensiometro ottico misura l’angolo di contatto statico e dinamico. La misura dell’angolo statico ci ha permesso di valutare l’energia superficiale dell’ossido nativo attraverso il metodo di Owen-Wendt. Per valutare l’omogeneità chimica/fisica dell’ossido abbiamo invece misurato l’isteresi dell’angolo di contatto in configurazione dinamica. Le misure di angolo statico e dinamico sono state realizzate su 10 frammenti di wafer di silicio a concentrazione crescente da 10^13 a 10^19 atomi/cm^3 di entrambi i tipi di drogante (ossia di tipo p - boro - e di tipo n - fosforo -). E’ stato osservato che, per i substrati drogati con boro, l’energia superficiale presenta un picco corrispondente ad una concentrazione di circa 10^15 atomi/cm^3 nell’intervallo di concentrazione 2 · 10^13 − 1.6 · 10^16 atomi/cm^3. Mentre i campioni drogati con fosforo presentano un andamento dell’energia superficiale leggermente crescente al crescere della concentrazione di drogaggio nell’intervallo di concentrazione 6.5 · 10^14 − 1.5 · 10^19 atomi/cm^3. Questo risultato è stato correlato alla diffusione degli atomi di drogante nell’ossido che raggiunge l’interfaccia SiO2 − Aria. L’osservazione sperimentale che l’energia superficiale dell’ossido dipenda dalla concentrazione di drogante è avvalorata dal confronto fra la componente polare e dispersiva, in particolare la componente polare presenta lo stesso picco osservato nell’energia superficiale. Le impurità nell’ossido, determinate dagli atomi di drogante, conferiscono quindi polarità alla superficie aumentando l’energia superficiale totale. Dal confronto fra le misure dei campioni as received con le misure dell’ossido ricostruito dopo 7 e 21 giorni di esposizione all’aria, ricaviamo che gli atomi di drogante diffondono nel tempo e, in particolare, la polarità superficiale ritorna alle con- dizioni as recived dopo 21 giorni dalla rimozione dell’ossido. E’ stata simulata numericamente una goccia su una superficie, comprendendo come il picco osservato nell’energia superficiale corrisponde ad un minimo dell’energia di Gibbs per i campioni di tipo p. Infine, l’isteresi aumenta in valor medio per i campioni con ossido ricostruito rispetto ai campioni as recived, ad indicare una possibile variazione dell’omogeneità chimico-fisica delle superfici.
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Il principale scopo di questa tesi è focalizzato alla ricerca di una caratterizzazione dei contenuti in video 3D. In una prima analisi, le complessità spaziale e temporale di contenuti 3D sono state studiate seguendo le convenzionali tecniche applicate a video 2D. In particolare, Spatial Information (SI) e Temporal Information (TI) sono i due indicatori utilizzati nella caratterizzazione 3D di contenuti spaziali e temporali. Per presentare una descrizione completa di video 3D, deve essere considerata anche la caratterizzazione in termini di profondità. A questo riguardo, nuovi indicatori di profondità sono stati proposti sulla base di valutazioni statistiche degli istogrammi di mappe di profondità. Il primo depth indicator è basato infatti sullo studio della media e deviazione standard della distribuzione dei dati nella depth map. Un'altra metrica proposta in questo lavoro stima la profondità basandosi sul calcolo dell’entropia della depth map. Infine, il quarto algoritmo implementato applica congiuntamente una tecnica di sogliatura (thresholding technique) e analizza i valori residui dell’istogramma calcolando l’indice di Kurtosis. Gli algoritmi proposti sono stati testati con un confronto tra le metriche proposte in questo lavoro e quelle precedenti, ma anche con risultati di test soggettivi. I risultati sperimentali mostrano l’efficacia delle soluzioni proposte nel valutare la profondità in video 3D. Infine, uno dei nuovi indicatori è stato applicato ad un database di video 3D per completare la caratterizzazione di contenuti 3D.
Resumo:
Lo scopo di questa tesi è la misura di sezione d’urto di produzione di coppie top-antitop nel canale adronico. Per la misura sono stati utilizzati i dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con un’energia nel centro di massa pari a 13 TeV. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 2.474 f b^ −1 . L’analisi dati inizia selezionando gli eventi che soddisfano determinate condizioni (e.g. trigger, tagli cinematici, sei o più jet, almeno 2 jet provenienti dall’adronizzazione di due quark bottom) con lo scopo di incrementare la purezza del segnale scartando il più possibile gli eventi di fondo. A seguire, viene ricostruita la massa del quark top usando un fit cinematico. Sulle distribuzioni di tale massa si basa la stima degli eventi di fondo e di segnale. Infine, attraverso un fit di verosimiglianza, si ottiene il valore della sezione d’urto: σ t t ̄ = 893 ± 57 (stat) ± 104 (syst) pb. Questo risultato è in buon accordo con il valore teorico di 832 pb e con altre misure di CMS effettuate in canali differenti.
Resumo:
In questa tesi si vuole fornire una panoramica generale dei processi di formazione delle galassie, con l'aggiunta di alcuni cenni sulla loro evoluzione. Nel primo capitolo si danno alcune informazioni sulla natura di questi oggetti e su come è stata scoperta la loro esistenza. Poi, utilizzando le premesse di cui al capitolo 2, nel capitolo 3 si passa alla spiegazione della loro formazione a partire dagli eventi successivi al Big Bang, di cui si fornisce una breve cronologia. Nel capitolo 4 si dà una panoramica della formazione degli ammassi di galassie e si discute di alcune osservazioni compiute su di essi, per concludere con considerazioni sul loro futuro. Infine, nell'ultimo capitolo ci si concentra sull'evoluzione delle galassie, in particolare sui processi di merging e sulle collisioni.
Resumo:
La Teoria di Densità Funzionale (DFT) e la sua versione dipendente dal tempo (TDDFT) sono strumenti largamente usati per simulare e calcolare le proprietà statiche e dinamiche di sistemi con elettroni interagenti. La precisione del metodo si basa su una serie di approssimazioni degli effetti di exchange correlation fra gli elettroni, descritti da un funzionale della sola densità di carica. Nella presente tesi viene testata l'affidabilità del funzionale Mixed Localization Potential (MLP), una media pesata fra Single Orbital Approximation (SOA) e un potenziale di riferimento, ad esempio Local Density Approximation (LDA). I risultati mostrano capacità simulative superiori a LDA per i sistemi statici (curando anche un limite di LDA noto in letteratura come fractional dissociation) e dei progressi per sistemi dinamici quando si sviluppano correnti di carica. Il livello di localizzazione del sistema, inteso come la capacità di un elettrone di tenere lontani da sé altri elettroni, è descritto dalla funzione Electron Localization Function (ELF). Viene studiato il suo ruolo come guida nella costruzione e ottimizzazione del funzionale MLP.
Resumo:
La tesi si pone l’obiettivo di valutare l’efficienza in termini di sicurezza stradale e di gradimento per l’utenza di una pista ciclabile esistente all’interno dell’area urbana del comune di Bologna. La ricerca è nata dalla necessità di avere degli strumenti di analisi che permettano di migliorare e potenziare le infrastrutture ciclabili. Essendo noto che il conducente di un velocipede durante la guida scansiona con lo sguardo l’ambiente che lo circonda, cercando informazioni significative per la posizione spaziale e temporale in cui si trova, per progettare ciclabili sicure diventa fondamentale conoscere quali elementi dell’ambiente sono maggiormente guardati e considerati dagli utenti. La Tangenziale delle Biciclette è un' infrastruttura ciclabile di recente realizzazione; importante dunque è studiarne le criticità, in modo da rendere le viabilità ciclabile su di essa più fluida e rapida possibile. Il campo prova su cui sono stati effettuati i test è quindi il tratto "Tangenziale Nord-Ovest delle Biciclette". La sperimentazione si è articolata in due parti: inizialmente sono state effettuate indagini preliminari sul campo prova, nello specifico sono stati distribuiti questionari di gradimento ad un totale di 50 utenti ciclabili. In un secondo momento invece sono stati eseguiti in loco test tramite la strumentazione Mobile Eye, cioè un dispositivo per il rilievo in continuo dello sguardo dei conducenti durante la guida. Mediante lo studio combinato dei risultati acquisiti dai questionari e dai video del Mobile Eye è stato possibile dedurre alcune criticità che compromettono la fluidità della viabilità ciclabile. L'ultimo paragrafo della tesi è dedicato all'elenco di alcune soluzioni strutturali che potrebbero rendere queste criticità meno impattanti.
Resumo:
L’epcidina (HAMP) è un ormone peptidico coinvolto nella regolazione sistemica dell’omeostasi del ferro e risulta essere espresso anche a livello cardiaco. Questo studio è stato condotto per approfondire le conoscenze riguardo al ruolo dell’epcidina e dei geni regolatori del ferro e il loro coinvolgimento nella patologie cardiache. Sono stati condotti studi sull’atassia di Friedreich (FRDA), una patologia neurodegenerativa caratterizzata dallo sviluppo di una cardiomiopatia da sovraccarico di ferro. A tale scopo, sono stati derivati cardiomiociti da cellule staminali pluripotenti indotte umane (hiPSCs) di un paziente affetto da FRDA e da un soggetto sano (Ctr) e in queste cellule è stata analizzata l’espressione del gene HAMP. I risultati ottenuti hanno evidenziato un aumento significativo dell’espressione genica di HAMP nei cardiomiociti FRDA rispetto ai controlli. Parallelamente, l’espressione genica di HAMP e di altri geni regolatori del ferro è stata analizzata in un modello animale murino sottoposto a ipossia intermittente (IH) e a un danno ischemico indotto dalla legatura coronarica (LAD). Nel gruppo di topi normossici sottoposti alla legatura coronarica (Normo LAD) è stata evidenziato un aumento dell’espressione genica di HAMP simile a quello riscontrato nei cardiomiociti FRDA, suggerendo che questo gene potrebbe essere indotto in presenza di un danno cardiaco. Inoltre, l’espressione della ferritina, una proteina coinvolta nello storage del ferro con attività antiossidante, rimane invariata nei topi sottoposti a un danno cardiaco come la LAD, mentre risulta essere aumentata nei topi sottoposti a IH. Pertanto, l’aumento di espressione della ferritina potrebbe contribuire ai meccanismi di cardioprotezione indotti dall’ipossia intermittente. I risultati di espressione genica ottenuti in questo studio saranno validati mediante studi di espressione proteica.