360 resultados para Cagliostro, Alessandro, conte di, 1743-1795
Resumo:
Studio e Progettazione di un sistema di sicurezza ed una legge di controllo per UAV di tipo quadcopter.
Resumo:
L’obiettivo di questa tesi è esfoliare mediante tecnica LPE qualche layer di grafite ed analizzare il campione ottenuto mediante la tecnica AFM. Negli studi sperimentali svolti nell’ambito di questa tesi sono state condotte tre tipologie di esperimenti: 1) analisi della grafite minerale prima del trattamento di esfoliazione; 2) esfoliazione LPE di grafite fissata su substrato di muscovite, in bagno ultrasonico con acqua bidistillata; 3) esfoliazione LPE di grafite fissata su muscovite, in bagno ultrasonico con azoto liquido. L’ultrasonicazione ha portato al distacco ed isolamento di frammenti di grafite di forma tipicamente triangolare e di dimensioni laterali micrometriche, i quali si sono depositati sul substrato di muscovite e ridepositati sulla grafite stessa. Inoltre ho osservato la presenza di diversi DLG (double-layer graphene) e addirittura la presenza di SLG (single-layer graphene) estesi alcune centinaia di nm. L’analisi AFM ha mostrato la presenza di bordi cristallografici definiti, a volte con la presenza di angoli di 120° e ha mostrato il fenomeno del “folding”.
Resumo:
Le protesi biomimetiche hanno subito negli anni innumerevoli cambiamenti dovuti al miglioramento tecnologico, che ha portato allo sviluppo di nuovi materiali sempre più biomimetici. L’utilizzo di protesi in idrossiapatite personalizzate rappresenta la scelta migliore per gli interventi di cranioplastica ricostruttiva. Ad oggi la produzione di questo dispositivo richiede lunghe fasi di lavorazione. Risulta pertanto di grande interesse trovare soluzioni innovative che permettano l’ottimizzazione dei tempi garantendo al contempo l’efficacia clinica. L’obiettivo di questo elaborato è introdurre l’utilizzo delle microonde per essiccare il semilavorato nelle fasi iniziali di produzione. Bisogna comprendere quali siano i parametri in grado di influenzare le proprietà finali del dispositivo e come modularli per guidare questi attributi verso il punto di ottimo. Si è deciso di utilizzare la tecnica del Design of Experiments a fattoriale completo come metodo per ottimizzare il processo produttivo. I fattori scelti sono stati la potenza del forno a microonde, il peso della cellulosa secca, il range di peso della matrice di cellulosa e la percentuale di essiccamento del semilavorato. Al termine dello studio è stato possibile capire come e quanto questi fattori abbiano influenzato la severità dei difetti, la porosità e le proprietà meccaniche (tensione ultima di compressione e lavoro a rottura) del prodotto finito. Lo studio ha mostrato che per garantire un basso numero di difetti associato ad una porosità in linea con le specifiche di prodotto è indicato impostare la potenza del forno a microonde sul valore di 250W e di utilizzare questo processo nella fase iniziale per essiccare al 20% i semilavorati. La conferma è stata fornita da una sperimentazione eseguita su protesi allineate ad un caso clinico reale utilizzando questo nuovo processo permettendo di ottenere un ottimo risultato in termini di qualità del prodotto finito con una bassa percentuale di scarto per difetti e porosità.
Il processo di compostaggio - studio di un metodo alternativo di screening e valutazione del compost
Resumo:
Il processo di compostaggio è il metodo più antico ed al tempo stesso innovativo di trasformazione dei rifiuti. La trasformazione in impianti di compostaggio industriale ricrea lo stesso processo semplice ma in scala maggiore processando molte tonnellate/anno di rifiuto con particolare riguardo a quello proveniente da raccolta differenziata. Il presente elaborato, oltre ad illustrare le nuove tecnologie di produzione nelle realtà locali della zona Romagnola, ha inteso indagare un aspetto alternativo ed innovativo di valutazione del compost. A supporto di quanto già previsto alla specifica normativa di settore e nell'ottica dell'ottimizzazione del processo, è stata valutata la possibilità di uso della tecnica analitica di microestrazione in fase solida (SPME) e della tecnica strumentale con naso elettronico. Si è inteso verificare anche come l'utilizzo di carbone vegetale, aggiunto alla fase di maturazione, possa apportare un contributo significativo nel controllo delle emissioni odorigene, problematica diffusa nelle aree limitrofe ad impianti di compostaggio. L'utilizzo delle tecniche di estrazione in fase solida (SPME) ha dimostrato che durante il processo le componenti odorigene tendono a ridursi notevolmente modificandosi in modo apprezzabile e valutabile mediante analisi GC-MS. L'aggiunta di carbone vegetale alla fase di maturazione contribuisce alla riduzione delle emissioni odorigene. I risultati ottenuti evidenziano come l'utilizzo dei sistemi proposti possa portare ad un'economicità qualora si riscontrassero tempi di maturazione variabili per le tipologie di materiale trattato, riducendo così i tempi di permanenza nei tunnel di maturazione e come le tecniche SPME e naso elettronico possano essere accoppiate per ottenere risultati complementari così da costruire un'informazione complessiva completa. Possibili sviluppi dello studio potrebbero essere improntati alla verifica puntuale del grado di maturazione in relazione alla tipologia del materiale in ingresso ed alla stagionalità nonché all'utilizzo di tali tecniche ad altre matrici e nell'ambito dell'individuazione della presenza di composti indesiderati in matrici ambientali.
Resumo:
Implementazione di un sistema di sovralimentazione per un motore due tempi tramite supercharger, eseguito con metodo classico e monodimensionale col software GT-POWER.
Resumo:
Analisi e progettazione di una applicazione web ERP (Enterprise Resource Planning) per una azienda di piccole/medie dimensioni.
Resumo:
Progettazione di un cuscino che si occupa di noi e ci aiuta nell'addormentarci attraverso la musica. Il tutto grazie all'aiuto di sensori e dell'Arduino che comunicheranno con lo smartphone per dare un'esperienza flessibile e personalizzabile.
Resumo:
Il grande sviluppo a cui stiamo assistendo negli ultimi anni nell'ambito delle tecnologie mobile e del wearable computing apre le porte a scenari innovativi e interessanti per quanto riguarda sistemi distribuiti collaborativi. Le persone possono sempre più facilmente cooperare e scambiarsi informazioni grazie a queste nuove tecnologie e si può pensare allo sviluppo di sistemi che permettano forme molto avanzate di collaborazione facendo leva sull'aspetto hands-free, ovvero sulla possibilità di utilizzare dispositivi che liberino le mani, come i moderni smart-glasses. Per lo sviluppo di tali sistemi è necessario però studiare nuove tecniche e architetture, in quanto gli strumenti ad oggi a disposizione a supporto della realtà aumentata non sembrano essere del tutto adeguati per tale scopo. Infatti piattaforme come Wikitude o Layar, seppure offrano potenti tecniche di riconoscimento di markers e immagini e di rendering, non offrono quella dinamicità fondamentale per un sistema distribuito collaborativo. Questo scritto ha lo scopo di esplorare questi aspetti mediante l'ideazione, l'analisi, la progettazione e la prototipazione di un semplice caso di studio ispirato a sistemi collaborativi distribuiti basati su realtà aumentata. In particolare in questo lavoro si porrà l'attenzione sul livello delle comunicazioni e delle infrastrutture di rete.
Resumo:
Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.
Resumo:
Studio e ottimizzazione di un sistema di rifornimento autonomo per autovetture a metano gassoso.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
L’obiettivo principale di questo elaborato è di mostrare in un primo momento i concetti fondamentali che stanno alla base del paradigma ad agenti. Una volta introdotti, essi verranno collocati in un determinato ambiente di programmazione attraverso una piattaforma specifica chiamata Jason. Come sarà facile capire dalla lettura di questa trattazione, un sistema ad agenti è costituito dagli agenti stessi e dall’ambiente in cui sono situati. L’ambiente risulta quindi un altro tassello fondamentale ed è stato introdotto allo scopo un nuovo paradigma per la programmazione di ambienti chiamato Agent & Artifact. Nello specifico, verrà ampiamente descritto il framework di riferimento di tale paradigma: CArtAgO. Dopo aver illustrato i concetti e gli strumenti per poter agilmente programmare e progettare sistemi ad agenti, verrà infine mostrato un esempio di applicazione di tale tecnologia attraverso un case study. Il progetto del sistema in questione riguarda un reale caso aziendale e integra la tecnologia RFID con quella ad agenti per fornire la soluzione ad un problema noto come quello del controllo periodico delle scorte.
Resumo:
L’impiego della storia della matematica è auspicato oggi più di ieri dalle attuali Indicazioni nazionali per i Licei ed è supportato da numerosi quadri teorici,che traghettano la storia della matematica dalle rive dell’essere artefatto all’essere conoscenza. In particolare nel secondo paragrafo del primo capitolo di questa tesi vengono presentati gli ostacoli epistemologici di Guy Brousseau, l’approccio socio-culturale di Louis Radford, l’approccio ”voci ed echi” di Paolo Boero ed infine lo spaesamento di Barbin. Nel terzo paragrafo vengono analizzati quei contributi che mirano a rendere più operativo l’entusiasmo suscitato dall’uso della storia nell’insegnamento della matematica. Quindi il primo capitolo ha l’obiettivo di porre le basi teoriche all’uso della storia nella trasmissione del sapere matematico; pertanto ho deciso di mettere a punto una sperimentazione da condurre in una classe seconda di Liceo Scientifico avente come oggetto una fonte storica. Come argomento è stato scelto l’irrazionalità, introdotto in tale trattazione nel secondo capitolo: nel primo paragrafo viene trattato il problema della nascita dell’incommensurabilità, mentre nel secondo vengono analizzate le numerose dimostrazioni che sono state proposte nel corso dei secoli in merito all’incommensurabilità di lato e diagonale di un quadrato partendo da Aristotele ed Euclide, passando per Alessandro d’Aforisia e Platone, attraversando le dimostrazioni geometriche e quelle che sfruttano il metodo dell’anthyphairesis, per giungere ad una dimostrazione moderna che non presta il fianco alle critiche aristoteliche proposte da Salomon Ofman. Nel terzo capitolo viene presentata la sperimentazione che ho condotto, anteponendo a ciò i criteri adottati per la scelta del brano, ossia le lezione di Geometria tratta dal Menone di Platone ed un breve tributo alla figura di Platone e alla sua opera da cui è tratto il brano scelto come fonte storica. Tale capitolo è articolato in tre paragrafi: nel terzo vengono descritte dettagliatamente tutte le attività condotte in classe e vengono presentati i lavori e le risposte degli studenti. Infine, nel quarto capitolo, vengono esaminati dettagliatamente i risultati dei ragazzi alla luce dei quadri teorici precedentemente introdotti e vengono messe in luce le peculiarità dell’attività dell’argomentare e le doti e mancanze relative a ciò degli studenti.