998 resultados para Motore brushless, controllo predittivo, veicolo elettrico
Resumo:
Nella tesi si è studiata una macchina automatica per l'industria farmaceutica: l'Adapta 100, un'opercolatrice (macchina riempi-capsule) prodotta da IMA SpA. Gli scopi della tesi erano chiarire il flusso di potenza dei vari assi e valutare un possibile risparmio energetico. La macchina infatti ha diversi motori: uno, collegato all'asse master, che comanda i gruppi non rimovibili e gli altri che comandano i gruppi di dosaggio. Tali motori in generale, per qualche tratto del ciclo della macchina, potranno lavorare come generatori, anche considerando il solo funzionamento a regime: si avrà cioè, in qualche istante, che le forze esterne tendono ad accelerare il motore, che così assorbe energia meccanica e produce energia elettrica. Attualmente tale energia viene dissipata in apposite resistenze collegate ai motori; ci si è chiesti se non si potesse invece immagazzinare l'energia prodotta, ad esempio per usarla in caso di black-out, per frenare delicatamente la macchina senza che gli assi perdano la fase. Un'alternativa è quella di ridistribuire la potenza generata istante per istante collegando i motori a un comune bus DC. Prima però è necessario conoscere gli andamenti di coppia e velocità di ciascun motore: per questo ci si è ricondotti al modello della macchina a 1 gdl, riducendo tutte le coppie e le inerzie all'asse motore. Si sono studiati i due assi più importanti in termini di coppie e potenze di picco: questi sono l'asse master e l'asse di dosaggio della polvere farmaceutica. Il modello è stato concretamente implementato con degli script MATLAB. Il modello risulta flessibile, per considerare le varie modalità di funzionamento della macchina, e considera i principali termini di coppia, inclusi attriti (inseriti sotto forma di rendimenti) e forze esterne di lavorazione. Tra queste è particolarmente importante la forza di compattazione della polvere, che è stata modellata con la formula di Kawakita, nota dalla letteratura.
Resumo:
Nel presente elaborato mi sono proposta di analizzare in che modo il testo viene percepito in maniera diversa da ognuno di noi, a seconda dell’esperienza estetica, e su come questo si rifletta sulla traduzione. Al fine di poter sviluppare tale questione, ho voluto esaminare la traduzione delle opere teatrali La vida es sueño di Pedro Calderón de La Barca e The tempest di William Shakespeare che è stata portata a termine rispettivamente da Pier Paolo Pasolini attraverso l’opera Calderón e da Giorgio Strehler insieme a Agostino Lombardo attraverso la messa in scena de La tempesta. Da un lato, Pasolini adatta e traspone il testo attraverso il suo modo di fare teatro, un “Teatro di Parola”, che non è solo impegno civile e dibattito critico, ma anche poesia e autoriflessione, in cui l’attore rappresenta un veicolo di idee. D’altro canto, la traduzione portata a termine da Giorgio Strehler e Agostino Lombardo è intesa come messa in scena, dove l’attore incarna il testo, con il fine di trasmettere la profondità del testo stesso. La prima parte è dedicata ad una riflessione su tematiche relative a quello che mi sono proposta di sviluppare nell’elaborato, come per esempio l’ermeneutica del testo, l’esperienza estetica, l’esistenza o meno di una traduzione definitiva. La parte centrale, invece, si concentra sulle due opere sopra citate, in particolar modo sui due approcci traduttivi differenti, che rappresentano due modi diversi di interpretare il testo.
Resumo:
Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, isolarono per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un eccellente trasporto termico ed elettrico ed un’ elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che la Comunità Europea ha approvato due dei più grandi progetti di ricerca mai finanziati in Europa, tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Con Flagship Grafene l’Europa punta sul grafene, e lo fa in grande. L’obiettivo è dunque ambizioso. Il suddetto materiale è infatti non solo il più sottile che conosciamo, con uno spessore di un atomo di carbonio, ma è anche 100 volte più resistente dell’acciaio e al tempo stesso flessibile. E’ Inoltre trasparente e conduce l’energia elettrica e termica molto meglio del rame. Ergo, il grafene offre le stesse performance dei materiali usati attualmente nei nostri dispositivi, con l’aggiunta però di ulteriori funzionalità.
Resumo:
Uno dei più importanti problemi irrisolti nel settore ceramico è il trasporto dell’atomizzato che è attualmente trasportato mediante nastri trasportatori che prelevano il materiale dal basso all’uscita dell’atomizzatore per poi coprire lunghe distanze, attraversando l'ambiente di lavoro fino ai silos di stoccaggio. Questo tipo di trasporto seppur basato su una tecnologia affidabile produce polveri sottili, causando inquinamento nell’ambiente di lavoro e generando rischi per la salute dei lavoratori (silicosi). Questa tesi si prefigge di descrivere questo innovativo sistema di trasporto pneumatico per l’industria ceramica e di gettare alcune basi per risolvere il problema del deterioramento del materiale sia dal punto di vista granulometrico sia dal punto di visto igrometrico dovuto a problemi relativi alla linea di trasporto. Questo approccio, basato sul controllo di parametri fluidodinamici e termoigrometrici, è stato possibile grazie allo studio del trasporto pneumatico su un impianto di prova e all’utilizzo di un software di simulazione (TPSimWin) basato su studi precedenti riguardo al trasporto di un flusso bifase gas-solido.
Resumo:
La tesi si pone il duplice obiettivo, da un lato, di seguire e approfondire i lavori di restauro e messa in sicurezza delle facciate di palazzo del Podestà, dall'altro, contemporaneamente, di proporre, sviluppare e sperimentare strumenti digitali da utilizzare durante la progettazione e l'esecuzione degli interventi di Restauro. Il settore del restauro architettonico si presenta, più di tanti altri, caratterizzato dalla molteplicità delle figure che intervengono nel corso del processso produttivo e dalla grandissima varietà e quantità di informazioni che entrano in gioco, partendo dalla fase di rilievo dello stato di fatto, fino all'indispensabile documentazione di fine lavori. Prendendo avvio, dunque, dal tirocinio svolto presso la Leonardo S.r.l. di Bologna, si è svolta una riflessione sui processi gestionali ed operativi legati alle operazioni di restauro e ci si è proposti di sviluppare e proporre alcuni strumenti digitali che, senza stravolgere l'attuale processo produttivo, potessero portare benefici operativi all'attività aziendale, facilitare il controllo ed il feedback da parte del committente e migliorare ed alleggerire l'onere della rendicontazione dei lavori. L'orizzonte di questi strumenti è multiplo: per l'attualità è stata sviluppata, in collaborazione con l'ENEA di Bologna, un'applicazione mobile su piattaforma FileMaker per la gestione delle operazioni di restauro attraverso la creazione di un database per la gestione delle analisi e del cantiere; mentre, per uno sviluppo "a regime" fra qualche anno, si è valutata l'efficacia di tecnologie SfM (Structure from Motion) per il rilievo speditivo e la documentazione. Nell'ottica di sviluppi ancora più lontani, infine, le due fasi saranno riunite nella proposta di tecnologie di realtà aumentata con l'obiettivo futuribile di poter passare direttamente dalla realtà e dal rilievo tridimensionale speditivo al progetto ed alla documentazione, senza dovere necessariamente passare da elaborati grafici bidimensionali. Durante tutte queste fasi lo sviluppo delle tecnologie è proceduto di pari passo con il cantiere di palazzo del Podestà, tanto nelle fasi di approfondita ricerca storica, quanto nella produzione delle schede di intervento. L'occasione della ricerca storica ha anche permesso di stilare un semplice regesto, corredato da immagini e bibliografia che raduna ed integra con materiali inediti i numerosi contributi sul tema che si sono succeduti dalla fine del XIX ai giorni nostri.
Resumo:
L’obiettivo principale di questo elaborato è di mostrare in un primo momento i concetti fondamentali che stanno alla base del paradigma ad agenti. Una volta introdotti, essi verranno collocati in un determinato ambiente di programmazione attraverso una piattaforma specifica chiamata Jason. Come sarà facile capire dalla lettura di questa trattazione, un sistema ad agenti è costituito dagli agenti stessi e dall’ambiente in cui sono situati. L’ambiente risulta quindi un altro tassello fondamentale ed è stato introdotto allo scopo un nuovo paradigma per la programmazione di ambienti chiamato Agent & Artifact. Nello specifico, verrà ampiamente descritto il framework di riferimento di tale paradigma: CArtAgO. Dopo aver illustrato i concetti e gli strumenti per poter agilmente programmare e progettare sistemi ad agenti, verrà infine mostrato un esempio di applicazione di tale tecnologia attraverso un case study. Il progetto del sistema in questione riguarda un reale caso aziendale e integra la tecnologia RFID con quella ad agenti per fornire la soluzione ad un problema noto come quello del controllo periodico delle scorte.
Resumo:
Nei primi vent’anni, la ricerca in ambito fotovoltaico si è focalizzata sull’evoluzione di quelle tecnologie associate alla semplice cella ed al sistema intero, per offrire miglioramenti con particolare riguardo al fronte dell’efficienza. Negli ultimi decenni, lo studio sull’energia rinnovabile ha ampliato i propri confini, sino a quella branca denominata elettronica di potenza, che ne permette la conversione e lo sfruttamento da parte dell’utente. L’elaborato si propone quindi di apportare un contributo verso tale direzione, teorico piuttosto che pratico, esaminando dapprima il mondo che effettivamente circonda l’impianto fotovoltaico grid-connected e successivamente ponderando e pianificando le scelte che conseguono dall’analisi letteraria. Particolare attenzione sarà rivolta al concetto di multilivello relativo agli inverter e agli aspetti che ne comportano il largo utilizzo nell’elettronica di potenza. Si stima che i primi brevetti risalgano a circa trent’anni orsono e uno di questi, tracciabile, riguarderebbe la configurazione a cascata di full-bridge, alimentati separatamente in DC, per ottenere a valle una scala di tensioni AC. Per mezzo di manipolazioni, nascerà in seguito il diode-clamped, attuale predecessore del Neutral Point Clamped T-Type Inverter. Si introdurranno pertanto le principali caratteristiche che contraddistinguono il convertitore, peculiare riguardo per la configurazione single leg nonché trifase. Ardua sarà la scelta sulla tecnica di controllo dell’inverter, sia per quanto concerne la fase simulativa che quella realizzativa, in quanto il dispositivo è indubbiamente considerato innovativo nel proprio campo di appartenenza. Convalidando la letteratura per mezzo di opportune simulazioni, si potrà procedere alla progettazione e quindi all’assemblaggio della scheda che effettivamente include l’inverter. Il lavoro implicherà numerose prove, effettuate in svariate condizioni di funzionamento, al fine di sostenere le conclusioni teoriche.
Resumo:
Ogni anno si registra un crescente aumento delle persone affette da patologie neurodegenerative come la sclerosi laterale amiotrofica, la sclerosi multipla, la malattia di Parkinson e persone soggette a gravi disabilità motorie dovute ad ictus, paralisi cerebrale o lesioni al midollo spinale. Spesso tali condizioni comportano menomazioni molto invalidanti e permanenti delle vie nervose, deputate al controllo dei muscoli coinvolti nell’esecuzione volontaria delle azioni. Negli ultimi anni, molti gruppi di ricerca si sono interessati allo sviluppo di sistemi in grado di soddisfare le volontà dell’utente. Tali sistemi sono generalmente definiti interfacce neurali e non sono pensati per funzionare autonomamente ma per interagire con il soggetto. Tali tecnologie, note anche come Brain Computer Interface (BCI), consentono una comunicazione diretta tra il cervello ed un’apparecchiatura esterna, basata generalmente sull’elettroencefalografia (EEG), in grado di far comunicare il sistema nervoso centrale con una periferica esterna. Tali strumenti non impiegano le usuali vie efferenti coinvolte nella produzione di azioni quali nervi e muscoli, ma collegano l'attività cerebrale ad un computer che ne registra ed interpreta le variazioni, permettendo quindi di ripristinare in modo alternativo i collegamenti danneggiati e recuperare, almeno in parte, le funzioni perse. I risultati di numerosi studi dimostrano che i sistemi BCI possono consentire alle persone con gravi disabilità motorie di condividere le loro intenzioni con il mondo circostante e provano perciò il ruolo importante che esse sono in grado di svolgere in alcune fasi della loro vita.
Resumo:
Descrizione e analisi del movimento di piattaforme multirotore tramite modellazione e simulazione computazionale. In particolare è stata analizzata l’attitudine di un quadricottero privo di sistema di controllo automatico. Per la scrittura e l’implementazione degli algoritmi risolutivi è stato utilizzato l’ambiente Matlab. Il codice realizzato permette, dopo successiva introduzione di alcune variabili realative a velivolo ed assetto, di ottenere l’evoluzione di parametri di volo che descrivono lo stato del drone nel tempo attraverso una progressiva integrazione numerica. In questo modo è possibile simulare teoricamente qualunque modello di quadricottero conoscendo i suoi parametri costruttivi, ottenendo così una modellazione preliminare da lanciare nel simulatore. Nella tesi viene utilizzato un unico modello realizzato in CAD Solidworks da cui sono stati ricavati i dati necessari. La tesi si compone di una trattazione semplificata di fattibilità di manovre semplici di un multirotore di tipo quadricottero con un approccio di Eulero-Newton ed, in seguito, in presenza di un carico sospeso tramite cavo considerato inestensibile, si sono analizzate delle evoluzioni nel tempo con un’approccio questa volta lagrangiano. Infine vengono trattati brevemente osservazioni conclusive e possibili sviluppi di questo lavoro di tesi.
Resumo:
In questa tesi viene proposta una revisione della cartografia geologica del Bacino di Tataouine, nella Tunisia meridionale, mediante la combinazione di sezioni stratigrafiche rilevate in campagna, acquisizione di cartografie a diversa risoluzione presenti in letteratura e applicazione di tecnologie GIS. In particolare, si è cercato di migliorare la risoluzione del materiale cartografico esaminato in specifici settori dell’area di studio fornendo informazioni dettagliate per le singole unità stratigrafiche affioranti. I dati esaminati si riferiscono principalmente alle successioni esposte lungo la scarpata del Dahar, un elemento morfologico sub-verticale che si estende nell’intera area di studio e che rende particolarmente difficile la rappresentazione in pianta delle diverse unità affioranti. A supporto dei dati di campagna (che si riferiscono a 23 sezioni stratigrafiche e 43 punti di controllo) sono stati integrati i dati ottenuti da immagini satellitari ad alta risoluzione. L’utilizzo di ArcMap ha permesso di unire i diversi dataset e ottenere quindi carte geologiche a maggiore risoluzione stratigrafica rispetto a quelle disponibili. L’applicazione della metodologia illustrata in questo progetto, se trasferita ad altri casi studio, potrebbe divenire una modalità operativa utile per ottenere una maggiore risoluzione nella rappresentazione in carta della geologia di un territorio.
Resumo:
Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.
Resumo:
Questa tesi è una rassegna sul tema del Software-Defined Networking (SDN):un paradigma emergente nel campo delle reti di calcolatori che consente di controllare, tramite un software centralizzato a livello logico, il comportamento dell’intera rete. In particolore è stato approfondito il protocollo OpenFlow ovvero l'interfaccia aperta e standardizzata per la comunicazione tra piano di controllo e piano di inoltro che è divenuto uno standard “de facto” nell'ambito della tecnologia SDN.
Resumo:
Il presente lavoro di tesi si inserisce all’interno del progetto europeo i-FLEXIS il cui obiettivo è lo sviluppo di un sensore di raggi X innovativo, affidabile, a basso costo e basato su componenti eterogenei organici. Attualmente, i rivelatori di radiazione ionizzante a stato solido fanno uso di materiali inorganici e sono ampiamente impiegati in ambito medico, industriale e come dispositivi per la sicurezza. Le scoperte scientifiche degli ultimi anni nell'ambito dei semiconduttori organici hanno evidenziato che tali materiali sono sensibili alla radiazione ionizzante e il loro utilizzo permette di realizzare rivelatori diretti di raggi-X, convertendo fotoni in segnale elettrico. Questi dispositivi sono caratterizzati da flessibilità, possibilità di lavorare a temperatura ambiente, basso costo di produzione, poca energia di alimentazione, alta sostenibilità ambientale e dalla possibilità di coprire grandi aree. Tutte queste proprietà concorrono ad incrementare sempre più l’attenzione e l’interesse dei ricercatori in questo relativamente nuovo mondo: i semiconduttori organici. In questa tesi sono stati esaminati cinque diversi campioni di TIPS-pentacene con la finalità di evidenziare quali si prestino meglio come rivelatori di raggi-X. I campioni sono tutti in diverse forme e spaziano dal cristallo singolo ai film sottili, con particolare attenzione al comportamento dei cristalli singoli cresciuti mediante processi di stampa direttamente sul substrato. Per quanto riguarda i semiconduttori organici, la frazione di raggi-X assorbita dai materiali è molto piccola e non è in grado di giustificare il segnale misurato. Si è effettuato inoltre un confronto tra la risposta dei campioni alla luce visibile e alla radiazione ionizzante per comprendere il meccanismo di generazione e rivelazione delle cariche in seguito all’assorbimento di raggi-X.
Resumo:
Oggigiorno milioni di persone fanno uso di Internet per gli utilizzi più disparati: dalla ricerca di informazioni sul Web al gioco online; dall'invio e ricezione di email all'uso di applicazioni social e tante altre attività. Mentre milioni di dispositivi ci offrono queste possibilità, un grande passo in avanti sta avvenendo in relazione all'uso di Internet come una piattaforma globale che permetta a oggetti di tutti i giorni di coordinarsi e comunicare tra di loro. È in quest'ottica che nasce Internet of Things, l'Internet delle cose, dove un piccolo oggetto come un braccialetto può avere un grande impatto nel campo medico per il monitoraggio da remoto di parametri vitali o per la localizzazione di pazienti e personale e l'effettuazione di diagnosi da remoto; dove un semplice sensore ad infrarosso può allertarci a distanza di una presenza non autorizzata all'interno della nostra abitazione; dove un'autovettura è in grado di leggere i dati dai sensori distribuiti sulla strada. Questa tesi vuole ripercorrere gli aspetti fondamentali di Internet of Things, dai sistemi embedded fino alla loro applicazione nella vita odierna, illustrando infine un progetto che mostra come alcune tecnologie IoT e wearable possano integrarsi nella domotica, come per esempio l'utilizzo di uno smartwatch, come Apple Watch, per il controllo dell'abitazione.
Resumo:
L'obiettivo di questo lavoro di tesi è realizzare e validare un modello del propulsore Allison 250 c18 realizzato in Simulink. In particolare utilizzando i dati provenienti da prove sperimentali effettuate al banco prova del laboratorio di Propulsione e macchine della Scuola di Ingegneria e Archittetura vengono dapprima create le mappe prestazionali dei singoli componenti. Esse sono poi implementate all'interno del modello in Simulink, realizzato con struttura modulare a blocchi permettendo il modellamento di ogni singolo componente del motore. Successivamente i dati provenienti dalle simulazioni sono confrontati con i dati sperimentali, riscontrando risultati soddisfacenti. In ultimo si riporta brevemente una descrizione della compilazione del modello da utilizzare in una interfaccia LabVIEW per verificarne il funzionamento del modello in real-time.