410 resultados para sospensione progressiva curva rigidezza MATHEMATICA foglio di calcolo
Resumo:
Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.
Resumo:
In questa tesi si descrive il lavoro svolto presso l’istituto INFN-CNAF, che consiste nello sviluppo di un’applicazione parallela e del suo utilizzo su di un’architettura a basso consumo, allo scopo di valutare il comportamento della stessa, confrontandolo a quello di architetture ad alta potenza di calcolo. L’architettura a basso consumo utilizzata `e un system on chip mutuato dal mondo mobile e embedded contenente una cpu ARM quad core e una GPU NVIDIA, mentre l’architettura ad alta potenza di calcolo `e un sistema x86 64 con una GPU NVIDIA di classe server. L’applicazione `e stata sviluppata in C++ in due differenti versioni: la prima utilizzando l’estensione OpenMP e la seconda utilizzando l’estensione CUDA. Queste due versioni hanno permesso di valutare il comportamento dell’architettura a basso consumo sotto diversi punti di vista, utilizzando nelle differenti versioni dell’applicazione la CPU o la GPU come unita` principale di elaborazione.
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Studio di un azionamento brushless di tipo predittivo per la trazione in un veicolo elettrico ibrido
Resumo:
Nel campo dell’automotive, negli ultimi anni, gli sviluppi sono stati consistenti: infatti sono state introdotte sul mercato molte novità, tra le quali vetture con propulsione elettrica o ibrida. Il controllo del motore termico durante il moto è studiato da moltissimi anni, mentre il controllo di un motore elettrico è tuttora in fase di continua ricerca e sviluppo. Infatti, con l’introduzione di tecniche vettoriali, si sono ottenuti notevoli miglioramenti a livello di qualità di utilizzo del motore elettrico stesso. In particolare, l’introduzione di un nuovo metodo di controllo che prende il nome di “controllo predittivo” cerca di ottimizzare ulteriormente la propulsione elettrica. Oggetto di studio in questa tesi è il controllo predittivo implementato per la regolazione delle correnti di statore in un motore brushless. Dopo una presentazione di carattere generale, che spazia dalle tipologie di vetture elettriche alle batterie utilizzate a bordo, passando dai vari tipi di propulsori elettrici verosimilmente utilizzabili, viene descritto, a livello teorico, il sistema utilizzato nelle simulazioni in questa tesi, prestando particolare attenzione alla macchina sincrona brushless a magneti permanenti ed al suo controllo vettoriale oltre che alla tecnica per un corretto deflussaggio. Successivamente sono descritti il controllo predittivo di corrente utilizzato nelle simulazioni, con un occhio di riguardo alla compensazione del ritardo di calcolo necessario per ottimizzare ulteriormente il controllo del motore di trazione elettrico, e la modellizzazione del veicolo elettrico ibrido in ambiente Simulink di Matlab, rimandando alle Appendici A e B per la eventuale consultazione dei codici implementati. Infine sono presentati i risultati ottenuti con vari tipi di prove per verificare se effettivamente il veicolo esegue ciò che è richiesto.
Resumo:
La struttura di gruppo è una delle strutture algebriche più semplici e importanti della matematica. Un gruppo si può descrivere in vari modi: uno dei più interessanti è la presentazione per generatori e relazioni. Sostanzialmente presentare un gruppo per generatori e relazioni significa dire quali specifiche ”regole di calcolo” e semplificazione valgono nel gruppo in considerazione oltre a quelle che derivano dagli assiomi di gruppo. Questo porta in particolare alla definizione di gruppo libero. Un gruppo libero non ha regole di calcolo oltre quelle derivanti dagli assiomi di gruppo. Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. In questa tesi si ricordano le definizioni più importanti ed elementari della teoria dei gruppi e si passa in seguito a discutere il gruppo libero e le presentazioni di gruppi con generatori e relazioni, dando alcuni esempi. La tesi si conclude illustrando l’algoritmo di Coxeter e Todd, per enumerare le classi laterali di un sottogruppo quando si ha un gruppo presentato per generatori e relazioni.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
L'obiettivo di questo lavoro di tesi è quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verrà rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione può essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione più efficiente e veloce.
Resumo:
L’analisi del fenomeno di Hump relativo ai motori di piccola scala è l’oggetto di studio di questo elaborato di tesi. Il primo step prevede l’introduzione e la descrizione dei possibili fattori che influenzano l’andamento del profilo di spinta dei motori a razzo, tra cui l’orientazione del particolato immerso nel propellente, il meccanismo di segregazione particellare e la separazione tra la fase liquida e quella solida. Ci si concentra in dettaglio sui primi due termini, dei quali si analizzano le conseguenze in relazione al processo produttivo, cioè sul processo di punzonatura e di colaggio, di un motore BARIA. Attraverso questa analisi, riferendosi ai dati teorici relativi alle variazioni sul rateo di combustione, si imposta l’orientamento dei grani come principale causa dell’effetto Hump per il processo di colaggio, mentre la segregazione particellare in riferimento al processo di punzonatura. Il passo finale consiste nel verificare la coerenza tra i profili di pressione provenienti da dati sperimentali (AVIO S.p.a.) e quelli ottenuti attraverso i codici di calcolo implementati.
Resumo:
La struttura di gruppo è una delle strutture algebriche più semplici e fondamentali della matematica. Un gruppo si può descrivere in vari modi. Noi abbiamo illustrato la presentazione tramite generatori e relazioni, che consiste sostanzialmente nell'elencare le "regole di calcolo" che valgono nel gruppo considerato, oltre a quelle che derivano dagli assiomi di gruppo. L'idea principale di questa tesi è quella di mostrare come un argomento così tecnico e specifico possa essere reso "elementare" e anche divertente. Siamo partiti dalla costruzione di un gioco, inventando regole da aggiungere di volta in volta. Abbiamo poi tentato di spiegare il medesimo concetto da un punto di vista teorico, tramite la teoria dei gruppi liberi. Si tratta di gruppi che hanno un insieme di generatori soddisfacenti unicamente alle relazioni che sono conseguenza degli assiomi di gruppo.Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. Infine si è illustrato il problema della parola formulato da Max Dhen nel 1911, e si è visto come tale problema è risolubile per i gruppi liberi.
Resumo:
L'obbiettivo di questa tesi è svolgere una trattazione semplice ma esauriente degli aspetti essenziali per lo studio delle configurazioni di equilibrio di semplici sistemi meccanici. In particolare l'analisi è volta a far parte del 'Progetto Matematica'; un portale del Dipartimento di Matematica dell'Università di Bologna, il cui scopo, attraverso le tesi di chi vi partecipa, è ''presentare la Matematica del primo biennio delle facoltà scientifiche in maniera interattiva, graduale, multimediale: in una parola, nel modo più amichevole possibile''. L'analisi, dopo alcuni richiami su elementi di base di calcolo vettoriale, si apre con un capitolo che enuncia nozioni e risultati fondamentali di meccanica classica, indispensabili per affrontare il problema dell'equilibrio nell'ambito della statica. Con il secondo capitolo inizia la trattazione delle configurazioni di equilibrio partendo dalla statica del punto materiale per poi passare ai sistemi più complessi costituiti da un numero arbitrario di punti. Per la parte di applicazioni vengono illustrati i due metodi classici di risoluzione: quello basato sulle equazioni cardinali della statica, che oltre ad individuare le configurazioni di equilibrio del sistema consente di determinare anche i corrispondenti valori delle reazioni vincolari, e quello basato sul principio dei lavori virtuali. Vengono poi riportati tre problemi standard la cui risoluzione è svolta attraverso entrambi i metodi per cercare di garantire una più completa comprensione della materia. Per l'esposizione degli argomenti analizzati si è fatto riferimento principalmente ai Trattati: D. Graffi, 'Elementi di Meccanica Razionale', Patron, Bologna 1973; S. Graffi, 'Appunti dalle lezioni di Fisica Matematica II'; a cui si rinvia per ogni ulteriore approfondimento (sulla materia),in particolare riguardo ai dettagli che, per necessità di sintesi, si sono dovuti omettere.
Resumo:
Una curva di Jordan è una curva continua nel piano, semplice e chiusa. Lo scopo della tesi è presentare tre teoremi riguardanti le curve di Jordan. Il teorema dei quattro vertici afferma che ogni curva di Jordan regolare di classe C^2 ha almeno quattro punti in cui la curvatura orientata ha un massimo o un minimo locali. Il teorema della curva di Jordan asserisce che una curva di Jordan divide il piano esattamente in due parti, l'interno e l'esterno della curva. Secondo il teorema di Schönflies, la chiusura dell'interno di una curva di Jordan è omeomorfa a un disco chiuso.
Resumo:
Un sistema sottoposto ad una lenta evoluzione ciclica è descritto da un'Hamiltoniana H(X_1(t),...,X_n(t)) dipendente da un insieme di parametri {X_i} che descrivono una curva chiusa nello spazio di appartenenza. Sotto le opportune ipotesi, il teorema adiabatico ci garantisce che il sistema ritornerà nel suo stato di partenza, e l'equazione di Schrödinger prevede che esso acquisirà una fase decomponibile in due termini, dei quali uno è stato trascurato per lungo tempo. Questo lavoro di tesi va ad indagare principalmente questa fase, detta fase di Berry o, più in generale, fase geometrica, che mostra della caratteristiche uniche e ricche di conseguenze da esplorare: essa risulta indipendente dai dettagli della dinamica del sistema, ed è caratterizzata unicamente dal percorso descritto nello spazio dei parametri, da cui l'attributo geometrico. A partire da essa, e dalle sue generalizzazioni, è stata resa possibile l'interpretazione di nuovi e vecchi effetti, come l'effetto Aharonov-Bohm, che pare mettere sotto una nuova luce i potenziali dell'elettromagnetismo, e affidare loro un ruolo più centrale e fisico all'interno della teoria. Il tutto trova una rigorosa formalizzazione all'interno della teoria dei fibrati e delle connessioni su di essi, che verrà esposta, seppur in superficie, nella parte iniziale.
Resumo:
L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.
Resumo:
Oggetto di questa tesi è lo studio di una rete di teleriscaldamento (TLR) preesistente, la rete di Corticella (Bo) ipotizzando la presenza di sottostazioni di scambio termico attive. Inizialmente sono state presentate le sottostazioni di scambio termico sia tradizionali che attive. Nelle tradizionali ci si è soffermato sul tipo di regolazione che può avvenire. Per quanto riguarda le sottostazioni di scambio termico attive son stati esaminati i 4 layout che permettono uno scambio termico bidirezionale di energia termica. E’ stato presentato il software IHENA (intelligent Heat Energy Network Analysis) creato dal dipartimento di ingegneria industriale, che ha permesso di effettuare le simulazioni sulla rete analizzata. Viene mostrato l’algoritmo di Todini-Pilati generalizzato dall’utilizzo delle equazioni di Darcy-Weisbach su cui si basa il motore di calcolo. Inoltre vengono presentati i vari input che è necessario inserire per ottenere il calcolo della rete. Dopo nozioni di base relative al teleriscaldamento attivo e la presentazione del software utilizzato si è passati alla vera e propria analisi della rete di teleriscaldamento. Sono state effettuate varie simulazioni per vedere l’andamento della rete di Corticella sia considerandola passiva (come nella realtà) che ipotizzandola attiva tramite l’inserimento di sottostazioni di scambio termico ative. Le analisi condotte riguardano i seguenti punti. a) E’ stata presentata la rete di Corticella cosi come è andando a studiare quindi il caso base. b) Sono state svolte delle analisi per vedere come si comportava la rete nel caso in cui venivano variati dei parametri operativi come i carichi termici richiesti dalle utenze. c) Sono stati valutati i percorsi più critici. d) Si è condotta un analisi sulla regolazione al variare delle temperature esterne. Dopo l'analisi del caso base sono state introdotte delle sottostazioni di scambio termico attive, prima solo una, e poi varie lungo determinati percorsi. Le valutazioni effettuate mettevano in primo piano gli andamenti della temperatura nei percorsi, la potenza termica generata dalla sorgente, la temperatura di ritorno in centrale e se si verificano delle problematiche sugli scambiatori di calore. In queste simulazioni sono stati valutati tutti e quattro gli schemi utilizzabili. Infine è stata effettuata un analisi comparativa tra le varie soluzioni studiate per poter mettere a confronto i casi. In particolare anche qui si sono voluti confrontare i valori di potenza spesa per il pompaggio, temperatura di ritorno in centrale e potenza termica offerta dalla sorgente.
Resumo:
Effettuare la calibrazione di un motore a combustione interna richiede precisione e al contempo tempi ridotti per poter essere eseguita in modo rapido e sicuro sui banchi prova. In questo elaborato viene trattata in particolare la calibrazione dell’anticipo di accensione, parametro fondamentale per massimizzare la PMI e quindi le prestazioni di un motore da corsa, ma altrettanto delicato per quanto riguarda il fenomeno della detonazione in cui si può incorrere attuando combustioni troppo anticipate durante la ricerca della fase ottimale. Con l’esigenza di dover calibrare il singolo motore in maniera non distruttiva, utilizzando una procedura di calibrazione automatica, è quindi necessario ricorrere a un sistema che sia in grado di prevedere il valore di anticipo che genererà un livello di detonazione ritenuto pericoloso per l’integrità del motore. Tale operazione deve essere effettuata con la miglior precisione possibile, in modo tale che venga esplorato tutto il campo dei valori di anticipo attuabili dato che la condizione di massima prestazione si trova a ridosso delle condizioni detonanti, quindi nella ricerca dell’ottimo ci si può imbattere in situazioni dannose. In questo elaborato è stata analizzata e rivista una procedura in ambiente MATLAB al fine di ridurne i tempi di calcolo fra una rampa di calibrazione e l’altra senza rinunciare all’accuratezza della previsione dell’anticipo limite ponendo l’attenzione sui parametri più importanti che regolano l’algoritmo di previsione. Inoltre per il calcolo dell’anticipo limite è stato implementato un approccio alternativo di tipo probabilistico basato sui dati sperimentali ciclo per ciclo, valutando anche modelli alternativi da applicare per il calcolo del MAPO statistico.