481 resultados para Controllo pressione cilindro
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
La nostra sfida è stata sviluppare un dispositivo che potesse riunire differenti funzionalità, dalla telepresenza alla visione dei dati on demand, e fosse in grado di portare innovazione nel panorama attuale. Abbiamo quindi deciso di creare un device che potesse svolgere attività d’ispezione e monitoraggio, concentrandoci nel corso dell’implementazione su alcuni possibili campi di utilizzo. Il sistema che abbiamo realizzato è open-source, modulare e dinamico, in grado di rispondere a esigenze diverse e facilmente riadattabile. Il prototipo progettato è in grado di comunicare con uno smartphone, grazie al quale viene guidato dall’utente primario, e di trasmettere in rete i dati rilevati dai diversi sensori integrati. Le informazioni generate sono gestibili attraverso una piattaforma online: il device utilizza il Cloud per storicizzare i dati, rendendoli potenzialmente accessibili a chiunque. Per la configurazione hardware abbiamo usato la kit-board Pi2Go e la piattaforma Raspberry Pi, alle quali abbiamo unito una videocamera e alcuni sensori di prossimità, temperatura e umidità e distanza. È nato così il prototipo InspectorPi, un veicolo telecomandato tramite dispositivo mobile in grado di esplorare ambienti ostili in cui vi sono difficoltà fisiche o ambientali alle quali sovvenire.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
L’obbiettivo ultimo di questo elaborato è quello di valutare il rischio per un evento sismico e un evento idrogeologico di tre reti di condotte per la distribuzione dell’acqua, per poter assegnare ai vari gradi di rischio un opportuno intervento. Le condotte delle reti sono identificate con: ID, materiale, pressione nominale, diametro nominale, portata, spessore, tipologia di giunti, rivestimento, protezione catodica, anno di posa, collocazione. Noti i dati, si possono calcolare le classi dei fattori vulnerabilità, esposizione e pericolosità, relativa ad ogni singola condotta e all’intera rete. La vulnerabilità valuta i fattori di suscettibilità e resilienza di una condotta, l’esposizione valuta i costi ad essa associati e la pericolosità valuta la possibilità degli eventi scelti in base alla collocazione fisica della condotta. Le classi sono successivamente combinate per conoscere il rischio della condotta rispetto l’intera rete. Valutato il livello di rischio abbinato al livello di vulnerabilità della condotta, si ottiene l’intervento opportuno per la condotta analizzata.
Resumo:
Progetto di un sistema software - integrato in un apparato di supervisione industriale - dedicato alla personalizzazione e alla generazione automatica di file di definizione di report basati su database SQL.
Resumo:
La diffusione e l'evoluzione degli smartphone hanno permesso una rapida espansione delle informazioni che e possibile raccogliere tramite i sensori dei dispositivi, per creare nuovi servizi per gli utenti o potenziare considerevolmente quelli gia esistenti, come ad esempio quelli di emergenza. In questo lavoro viene esplorata la capacita dei dispositivi mobili di fornire, tramite il calcolo dell'altitudine possibile grazie alla presenza del sensore barometrico all'interno di sempre piu dispositivi, il piano dell'edificio in cui si trova l'utente, attraverso l'analisi di varie metodologie con enfasi sulle problematiche dello stazionamento a lungo termine. Tra le metodologie vengono anche considerati sistemi aventi accesso ad una informazione proveniente da un dispositivo esterno e ad una loro versione corretta del problema dei differenti hardware relativi ai sensori. Inoltre viene proposto un algoritmo che, sulla base delle sole informazioni raccolte dal sensore barometrico interno, ha obbiettivo di limitare l'errore generato dalla naturale evoluzione della pressione atmosferica durante l'arco della giornata, distinguendo con buona precisione uno spostamento verticale quale un movimento tra piani, da un cambiamento dovuto ad agenti, quali quelli atmosferici, sulla pressione. I risultati ottenuti dalle metodologie e loro combinazioni analizzate vengono mostrati sia per singolo campionamento, permettendo di confrontare vantaggi e svantaggi dei singoli metodi in situazioni specifiche, sia aggregati in casi d'uso di possibili utenti aventi diverse necessita di stazionamento all'interno di un edificio.
Resumo:
Sviluppo di un simulatore della cinetica chimica in una scarica a barriera dielettrica in aria a pressione atmosferica, focalizzando l'attenzione nei processi di creazione e decomposizione dell'ozono. Illustrazione del parco software utilizzato e caratterizzazione del modello fisico reale. Analisi e confronto tra i dati ottenuti tramite calcolatore e i dati ottenuti dalle misure al laboratorio.
Resumo:
L'obiettivo di questo elaborato è quello di indicare una via verso una nuova modalità di utilizzo degli osservatori astronomici disseminati lungo la penisola italiana. Utilizzando le tecnologie disponibili e integrandole fra loro il sistema che si andrà a progettare permetterà di controllare da remoto un osservatorio astronomico. Questa nuova modalità di interazione con strumenti scientifici quali i telescopi potrà rendere possibile nuove modalità di divulgazione astronomica, sia in ambito educativo fornendo nuovi strumenti alle scuole che in ambito culturale potendo avvicinare tutti i curiosi all'osservazione dei corpi celesti che circondano il pianeta Terra. Utilizzare la tecnologia per avvicinare le persone alla scienza è una grande sfida per il futuro: le nuove scoperte e le nuove invenzioni non sono ormai piu frutto di singole menti brillanti ma frutto di collaborazioni e figlie della "sapienza collettiva" che Internet sta fortificando e rendendo sempre piu fruibile.
Resumo:
Se pensiamo ad un generico punto sulla superficie terreste questo sarà soggetto allo spostamento nel tempo della propria posizione, a causa delle deformazioni della crosta terrestre. Se conosciamo l’intensità e la direzione dello spostamento possiamo esprimere la variazione delle coordinate del punto in un sistema di riferimento geodetico , in funzione del tempo. Varie teorie spiegano la causa di tali deformazioni crostali (ES. La Tettonica a Placche) , attribuendo l’origine a movimenti convettivi del mantello, determinati dalla variazione spaziale della densità ed al progressivo rilascio degli sforzi accumulati nella litosfera a causa del peso delle massi di ghiaccio che, hanno ricoperto parte della superficie terrestre nelle glaciazioni passate. Fin dagli anni’80 il GNSS è divento una tra le tecniche più idonee per andare a valutare lo spostamento della crosta terrestre rispetto ad un sistema di riferimento globale e regionale grazie all’elevato grado di precisione conseguibile.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
In questo lavoro vengono indagati i benefici dell’aumento della pressione d’iniezione dell’AdBlue nei sistemi SCR. Dopo aver esposto le ipotesi teoriche a supporto della tesi, si passa all’allestimento del veicolo dimostrativo impiegato per l’attività sperimentale. In questa fase viene illustrato tutto il processo di preparazione, che comprende: la messa a punto del circuito idraulico, la caratterizzazione degli iniettori impiegati, la strumentazione della linea di scarico, e il software INCA impiegato per il comando delle centraline. Dopodiché vengono descritti nel dettaglio i test, condotti con il veicolo sperimentale, sul banco a rulli. Attraverso le prove, eseguite su due differenti punti motore, si è potuto dimostrare l’effettivo aumento di efficienza di abbattimento degli NOx, da parte del sistema SCR, all’aumentare della pressione d’iniezione dell’AdBlue. Inoltre si hanno effetti positivi anche in merito al fenomeno dell’ammonia slip, che viene sensibilmente ridotto ai livelli di pressione più alti.
Resumo:
Il presente elaborato è incentrato sulla modellizzazione del plasma di bordo nei dispositivi per la produzione di energia da fusione nucleare noti come tokamak. La tecnologia che nel corso di tutta la seconda metà del XX secolo fino ad oggi è stata sviluppata a questo fine deve necessariamente scontrarsi con alcuni limiti. Nei tokamak il confinamento del plasma è di tipo magnetico e vincola le particelle a muoversi di moto elicoidale all'interno del vessel, tuttavia il confinamento non risulta perfetto e parte dell'energia si scarica sulle pareti della camera, rischiando pertanto di fondere i materiali. Alcune strategie possono essere messe in atto per limitare questo problema, per esempio agendo sulla geometria del tokamak, oppure sulla fisica, inducendo nel plasma una data concentrazione di impurezze che ionizzino irraggiando parte dell'energia di plasma. Proprio tale meccanismo di perdita è stato simulato in un modello monodimensionale di plasma monofluido di bordo. I risultati del codice numerico relativo al modello dimostrano che per concentrazioni di impurezze crescenti è possibile diminuire in modo significativo flusso di calore e temperatura al divertore. Per di più risulta possibile controllare la posizione del fronte di irraggiamento per mezzo di parametri di controllo del plasma quali la pressione. Si osserva inoltre l'insorgere del cosiddetto fenomeno di biforcazione alle basse temperature di divertore, fenomeno in cui il plasma si comporta in modo instabile a causa di fenomeni fisici tipici delle basse energie ("detachment") e a seguito del quale può improvvisamente spegnersi (disruzione). Infine lo stesso modello è stato migliorato inserendo l'ipotesi di plasma bifluido. Anche per gli ioni viene osservato il fenomeno di biforcazione. I risultati numerici evidenziano le dinamiche dello scambio energetico fra le specie gettando le basi di una progettazione efficiente della chimica del plasma finalizzata al raffreddamento del divertore.
Resumo:
Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.
Resumo:
Il presente lavoro si riferisce alle acque delle fontane a ricircolo. Una fontana a ricircolo è un’opera monumentale le cui acque non sono erogate come potabili; inoltre le persone non vi si immergono ma potendo comunque venirne a contatto tramite schizzi o animali, vanno trattate con una disinfezione mirata ad eliminare gli agenti patogeni pericolosi per l’uomo. Dopo aver inquadrato il problema dal punto di vista normativo, nel primo capitolo, si è passati ad analizzare il problema sanitario, descrivendo microorganismi patogeni e indicatori di rischio. È stato tuttavia necessario tenere conto anche di un altro problema: quello dell’aggressività di certi prodotti disinfettanti sui materiali costituenti la fontana. A tal proposito è stato riportato l’esempio di un caso di studio, il restauro della Fontana delle Tartarughe di Roma. Infine, dopo varie considerazioni volte ad analizzare un adeguato compromesso tra problema sanitario e problema di aggressività/corrosione sui materiali, si è dimostrato come la tecnica di disinfezione a raggi UV sia preferibile per le fontane monumentali a ricircolo.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.