894 resultados para sistema di gestione, OHSAS, sicurezza sul lavoro
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.
Resumo:
1 Progettare un sistema di raccolta e tracciabilità dei RAEE innovativo e replicabile 2 Dimostrare il possibile incremento della raccolta differenziata dei RAEE 3 Analizzare numericamente le Performance 4 Evidenziare i risultati ottenuti dalla raccolta 5 Sviluppi futuri volti a favorire la diffusione del modello ideato e sperimentato
Resumo:
La dialisi è una terapia essenziale alla sopravvivenza delle persone colpite da insufficienza renale. Senza questo trattamento periodico l’aspettativa di vita si riduce a pochi giorni. Il fine di questo trattamento è il ripristino dell’equilibrio idro-elettrolitico e acido-base del paziente e la rimozione del fluido in eccesso che l’organismo non è in grado di espellere autonomamente. La parte di liquido che passa attraverso il filtro dal lato sangue, alla parte di bagno dialisi prende il nome di ultrafiltrato. Ciò comporta che nelle macchine per emodialisi ci sia un sistema di controllo dedicato all’ultrafiltrazione. La durata della seduta è variabile, è finalizzata a riportare il paziente al peso ottimale in un tempo limitato. Il seguente elaborato è stato svolto presso il laboratorio della start-up IBD Italian Biomedical Devices, uno dei progetti in via di sviluppo è la realizzazione di una macchina per emodialisi a basso costo. Obiettivo della tesi è stato quello di confrontare due misuratori di portata e valutarne l’adeguatezza per la gestione del sistema di ultrafiltrazione. È stato esplorato tutto il range di portate a cui potrebbero essere sottoposti durante l’utilizzo del macchinario. I sensori oggetto di studio sono l’Oval Gears Flowmeters ed il flussimetro Series 800, entrambi adatti all’impiego in ambito biomedicale. Appartengono a due diverse classi: il primo è un contatore volumetrico, registra il numero di volumi base lo che attraversano. Il secondo è un misuratore a turbina, genera impulsi verso l’esterno in numero proporzionale alla velocità del fluido. Lo studio necessita anche di una parte di acquisizione dei segnali provenienti dai sensori, è stata implementata interamente sulla piattaforma Arduino. I dati acquisiti sono stati elaborati ed analizzati al fine di avere un confronto tra i misuratori e con il gold-standard. Per poter confrontare le prestazioni è stato realizzato e seguito un protocollo sperimentale.
Resumo:
La realizzazione della componentistica satellitare è una disciplina innovativa e sempre in aggiornamento, capitanata dall’obiettivo di minimizzare il peso e il volume delle componenti e concretizzare così missioni satellitari affidabili ma sempre più economiche. Questo lavoro di tesi viene svolto nell’ambito di strumenti per la simulazione di sistemi di controllo di assetto di un satellite in orbita bassa terrestre. Il lavoro è volto ad ottenere uno strumento per compiere studi preliminari di missioni di microsatelliti, che sia dotato della possibilità di scegliere più combinazioni di attuatori e sensori e che permetta di valutare la bontà e i vantaggi derivanti dalla scelta di tali configurazioni scelte. Il punto di partenza è stato un simulatore realizzato in ambiente Matlab/Simulink per il monitoraggio di uno specifico microsatellite, ALMASat-1 dell’Università di Bologna. Vi sono stati aggiunti dei tools allo scopo di aggiornare il simulatore a nuove tecnologie e di consentire di realizzare diverse combinazioni di determinazione e controllo in assetto. Si presenterà inizialmente l’interfaccia grafica realizzata per facilitare l’utilizzo del simulatore e si mostreranno successivamente le modifiche apportate in concomitanza con l’aggiornamento del simulatore. Tra le innovazioni applicate al simulatore si annoverano la possibilità di far iniziare la simulazione in precisi stadi di assetto, permettendo all’utente di discriminare solo le fasi ad egli utili, e il miglioramento del sistema di determinazione dell’assetto, compiuto aggiungendo al sistema un simulatore di sensore di stelle, il più accurato tra tutti i sensori e il cui utilizzo, tipicamente riservato a missioni ad elevato budget, si è reso recentemente compatibile, in termini di dimensioni peso e costi, anche a piattaforme satellitari di dimensioni ridotte. Per entrambi gli aspetti verranno mostrate le rispettive modalità di realizzazione, ponendo particolare attenzione all’analisi posta per l’implementazione di uno strumento di misura. Infine sarà presente una discussione sui vantaggi offerti dal simulatore rinnovato.
Resumo:
Questo lavoro di tesi nasce dall’opportunità di un tirocinio della durata di sei mesi presso Umbra Cuscinetti S.p.A., importante azienda leader nel settore aeronautico e industriale per la realizzazione di Cuscinetti a sfera, Viti a ricircolo di sfere e Attuatori Elettromeccanici (EMA). L’ambito di riferimento è quello del Processo di Sviluppo Nuovo Prodotto per la linea di Business EMA. La linea ha completato la fase “pionieristica” che ne ha segnato l’ingresso in un nuovo settore industriale e, oggi, ha la necessità di procedere ad una razionalizzazione delle proprie attività allo scopo di supportare al meglio i programmi di sviluppo. I prodotti della linea presentano un elevato grado di innovazione e non essendo standardizzati, richiedono una gestione oculata in tutti gli aspetti di costo, tempo e qualità. I progetti finora intrapresi non hanno soddisfatto appieno le aspettative per questa linea, le cui potenzialità sono molto elevate; da qui la necessità di una riprogettazione di tutto il processo. L’analisi è stata condotta mediante la metodologia DMAIC e prevede come obiettivo l’inserimento del Project Management come nuova metodologia di gestione del processo.
Resumo:
Studio e Progettazione di un sistema di sicurezza ed una legge di controllo per UAV di tipo quadcopter.
Resumo:
La tesi tratta la tematica delle web API implementate secondo i vincoli dello stile architetturale ReST e ne propone un esempio concreto riportando la progettazione delle API di un sistema di marcature realizzato in ambito aziendale.
Resumo:
Questo lavoro è volto a far conoscere l'opera dello scrittore H. Krausser "Einsamkeit und Sex und Mitleid" e il genere Pulp. Ho voluto approfondire alcune caratteristiche di questo genere perché è ancora poco conosciuto, dato che questa corrente letteraria è nata soltanto negli anni Novanta. Nella prima parte dell'elaborato ho inserito una breve presentazione del genere per spiegare l'origine del termine pulp e descrivere le caratteristiche principali che lo definiscono. In modo particolare mi sono concentrato sulla sua diffusione in Italia attraverso la corrente dei cannibali, indicandone i principali esponenti. Successivamente ho presentato l'autore Helmut Krausser che, attraverso un accurato lavoro letterario, è stato in grado di mettere insieme un mosaico di personaggi sparsi per la metropoli di Berlino. Julia König è una donna ambiziosa ed esigente, Vincent è un gigolò rinomato, Ekki un ex professore ridotto alla miseria, Swentja una giovane ragazza contesa tra due giovani e incapace di badare a sua sorella. Questi sono solo alcuni dei personaggi presenti nell'opera. Questo libro risultava interessante sul piano traduttivo poiché gli spunti da analizzare erano molteplici e, a mio avviso, intriganti. Visto l'ampio numero di personaggi, l'opera di H. Krausser è incentrata sul dialogo. Si tratta di una tipologia testuale che all'apparenza potrebbe sembrare semplice e lineare, ma in realtà può rivelarsi insidiosa per la traduzione. Infatti, non è semplice restituire la stessa spontaneità del testo di partenza e trasmettere in maniera fedele il registro tipico dell'oralità. Ho ritenuto opportuno analizzare questo genere letterario per le peculiarità che lo contraddistinguono dagli altri. Con i suoi toni crudi, violenti e talvolta anche cinici il pulp offre immagini di realtà drammatiche che producono un forte impatto emotivo sul lettore grazie a uno stile diretto, privo dei filtri della moralità e del pudore.
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.