199 resultados para FPGA, Elettronica digitale, Sintesi logica
Resumo:
La firma digitale è uno degli sviluppi più importanti della crittografia a chiave pubblica, che permette di implementarne le funzionalità di sicurezza. La crittografia a chiave pubblica, introdotta nel 1976 da Diffie ed Hellman, è stata l'unica grande rivoluzione nella storia della crittografia. Si distacca in modo radicale da ciò che l'ha preceduta, sia perché i suoi algoritmi si basano su funzioni matematiche e non su operazioni di sostituzione e permutazione, ma sopratutto perché è asimmetrica: prevede l'uso di due chiavi distinte (mentre nelle crittografia simmetrica si usa una sola chiave condivisa tra le parti). In particolare, le funzioni matematiche su cui si basa tale crittografia sono funzioni ben note nella Teoria dei Numeri: ad esempio fattorizzazione, calcolo del logaritmo discreto. La loro importanza deriva dal fatto che si ritiene che siano 'computazionalmente intrattabili' da calcolare. Dei vari schemi per la firma digitale basati sulla crittografia a chiave pubblica, si è scelto di studiare quello proposto dal NIST (National Institute of Standard and Technology): il Digital Signature Standard (DSS), spesso indicato come DSA (Digital Signature Algorithm) dal nome dell'algoritmo che utilizza. Il presente lavoro è strutturato in tre capitoli. Nel Capitolo 1 viene introdotto il concetto di logaritmo discreto (centrale nell'algoritmo DSA) e vengono mostrati alcuni algoritmi per calcolarlo. Nel Capitolo 2, dopo una panoramica sulla crittografia a chiave pubblica, si dà una definizione di firma digitale e delle sue caratteristiche. Chiude il capitolo una spiegazione di un importante strumento utilizzato negli algoritmi di firma digitale: le funzioni hash. Nel Capitolo 3, infine, si analizza nel dettaglio il DSA nelle tre fasi che lo costituiscono (inizializzazione, generazione, verifica), mostrando come il suo funzionamento e la sua sicurezza derivino dai concetti precedentemente illustrati.
Resumo:
Il presente progetto di tesi è stato svolto in collaborazione con l’ufficio tecnico di Ricerca & Sviluppo dell’azienda Cefla Dentale, divisione MyRay (Imola - BO Italia). A seguito dell’esperienza maturata nel settore dei radiografici dentali, scelte aziendali hanno richiesto l’aggiornamento delle tecniche di elaborazione dell’immagine acquisita. Ogni prodotto commercializzato è fornito di un software predisposto alla gestione dei pazienti e alle operazioni di post-procesing tipiche: riduzione del rumore, aumento dei contrasti, della luminosità, misurazioni e tutti quelli presenti nei più comuni software di elaborazione grafica. Questi filtri digitali sono raccolti in una libreria sviluppata a seguito di una collaborazione esterna. Col presente elaborato viene effettuata una panoramica sulle tecniche di filtraggio utilizzate e vengono introdotte diverse proposte finalizzate alla riduzione del rumore. Test di valutazione qualitativa e quantitativa, su fantocci target, fantocci antropomorfi e set di immagini in-vivo, guideranno la scelta verso la proposta migliore, la quale verrà successivamente inserita all’interno della libreria e andrà ad aggiungersi ai filtri a disposizione dell’utente finale.
Resumo:
Tra le numerose tecnologie che impiegano l'energia solare per la produzione di elettricità una tra le più promettenti è quella degli impianti a Central Receiving System (CRS). Tale sistema consiste in un campo di specchi altamente riflettenti, detti eliostati, che concentrano la radiazione solare su una superficie assorbente posizionata in cima a una torre. La quantità di radiazione concentrabile da un sistema CRS, e quindi l'energia effettivamente prodotta, dipende in maniera cruciale dalla precisione del puntamento degli eliostati. I sistemi attualmente disponibili sono in grado di ottenere un'alta effcienza ma necessitano di componenti meccanici ad alto costo, che siano in grado di ottenere precisioni di puntamento molto elevate. Le molte sorgenti di errore presenti nel sistema possono però portare a un decremento significativo di tale efficienza. Alcuni di questi errori (tolleranze meccaniche dell'installazione, agenti atmosferici) possono essere compensati mediante opportuni sistemi di controllo ad anello chiuso. Il risultato è di aumentare il potere di concentrazione dell'impianto, riducendo al contempo i costi, vista la possibilità di utilizzo di componenti meccanici meno precisi. Questa tesi si propone di sviluppare un sistema di controllo a basso costo in retroazione per orientare nello spazio tridimensionale un eliostato. Tale sistema deve essere in grado di soddisfare le specifiche sulla precisione di puntamento fornite dalla modellistica degli impianti CRS. Sono illustrati i metodi per ottenere le quantità necessarie a determinare l'orientazione da misure statiche di accelerazione e campo magnetico.Sono stati esaminati i modelli teorici di accelerometri e magnetometri e le procedure, presenti nella letteratura, per una loro corretta calibrazione. Si sono quindi confrontate le prestazioni delle differenti calibrazioni in una misura con un sensore reale. Si è valutato l'impatto di vari tipi di filtraggio digitale nel diminuire l'incertezza di determinazione degli angoli caratteristici fino ai valori forniti dalle specifiche.
Resumo:
La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.
Resumo:
Nel testo viene descritto passo dopo passo come la tecnologia si è imposta all'interno del campo radiologico. Dallo scenario generale con i vari attori e mezzi di comunicazione, alla realizzazione del progetto di trasformazione di tutta una unità radiologica da analogica a digitale.
Resumo:
Nel campo dell’industria chimica la ricerca si è mossa in direzione di rendere i processi più sostenibili. Ciò viene effettuato considerando le linee guida della green chemistry. In questo contesto si colloca la metodologia LCA che valuta l’impatto ambientale associato ad un processo o un prodotto, comprendendo tutto il suo ciclo di vita. Nel presente lavoro di tesi si studia l’applicazione della LCA alla sintesi industriale di anidride maleica (AM), che viene ottenuta tramite reazione di ossidazione del benzene o dell’n-butano. Nello studio si sono modellate tre diverse vie di sintesi dell’AM considerando il processo di produzione che parte da benzene e il processo di produzione da butano con due diversi tipi di reattore: il letto fisso e il letto fluido (processo ALMA). Negli scenari si considerano le fasi di produzione dei reagenti e si è modellata la fase della reazione di ossidazione e l’incenerimento dei sottoprodotti e del reagente non convertito. Confrontando i tre processi, emerge che al processo che parte da benzene sono associati gli impatti globali maggiori mentre il processo ALMA ha un minore carico ambientale. Il processo da benzene risulta avere maggiori impatti per le categorie Cambiamento climatico, Formazione di particolato e Consumo dei metalli. Il processo da butano a tecnologia a letto fisso presenta invece maggiori impatti per le categorie Tossicità umana e Consumo di combustibili fossili, dovuti alla maggiore richiesta energetica effettuata dal processo di ossidazione del butano con tecnologia a letto fisso e alla richiesta di combustibile ausiliario per la fase di incenerimento. Tale risultato emerge anche dall’analisi effettuata con il Cumulative Energy Demand. Al processo ALMA sono associati gli impatti inferiori in assoluto, nonostante abbia una resa inferiore al processo che utilizza il letto fisso. I risultati dell’analisi LCA sono stati confermati dall’analisi delle incertezze, realizzata con il metodo statistico Monte Carlo.
Resumo:
Con questa tesi di laurea si muovono i primi passi di una ricerca applicata finalizzata alla costruzione-deposizione di materiale da parte di sciami di mini-robot dal comportamento indipendente che si coordinano tramite segnali lasciati e rilevati nell’ambiente in cui si muovono. Lo sviluppo di tecniche di progettazione e fabbricazione digitale ha prodotto un aumento nel grado di interconnessione tra tecnologia e design, dunque, di nuove possibilità tettoniche. Le relazioni tettoniche tradizionali stanno infatti subendo una trasformazione radicale, potendo essere esplicitamente informate e dunque mediate attraverso gli strumenti digitali dall’ideazione alla produzione. Questa mediazione informata del contenuto tettonico (che opera costantemente) è distintivo di un approccio material-based alla progettazione che aumenta l’integrazione tra struttura, materia e forma entro le tecnologie di fabbricazione (R.Oxman). Dei numerosi processi di fabbricazione per l’architettura che si servono di tecnologia robotica, pochi sono capaci di superare la logica gerarchica, rigida e lineare-sequenziale che serve di fatto agli obiettivi di automazione ed ottimizzazione. La distribuzione di forme di intelligenza semplificata ad un numero elevato di unità robot è quindi qui proposta come alternativa al modello appena descritto. Incorporando semplici decisioni di carattere architettonico negli agenti-robot che costituiscono il sistema distribuito di entità autonome, la loro interazione e le decisioni prese individualmente producono comportamento collettivo e l’integrazione delle suddette relazioni tettoniche. Nello sviluppo del progetto, si è fatto così riferimento a modelli comportamentali collettivi (di sciame) osservabili in specie comunitarie che organizzano strutture materiali -come termiti e vespe- ed in organismi semplici -come le muffe cellulari della specie Physarum polycephalum. Per queste specie biologiche il processo di costruzione non dipende da un ‘piano generale’ ma è guidato esclusivamente da azioni dei singoli individui che comunicano lasciando tracce chimiche nell’ambiente e modificano il loro comportamento rilevando le tracce lasciate dagli altri individui. A questo scopo, oltre alle simulazioni in digitale, è stato indispensabile sviluppare dei prototipi funzionali di tipo fisico, ovvero la realizzazione di mini-robot dal movimento indipendente, in grado di coordinarsi tra loro tramite segnali lasciati nell’ambiente e capaci di depositare materiale.
Resumo:
Caratterizzazione di un biomateriale a base di fitocomplessi, contenente ossalato di potassio, progettato per il trattamento dell'ipersensibilità dentinale.
Resumo:
Sono stati sintetizzati catalizzatori eterogenei di oro supportati su silice funzionalizzata. Le specifiche funzionalità condensate sulla superficie del supporto sono in grado di ridurre HAuCl4, producendo nanoparticelle d’oro metalliche sferiche e stabilizzate sulla superficie, senza l’aggiunta di agenti riducenti e stabilizzanti. I catalizzatori sono attivi per la reazione di riduzione del 4-nitrofenolo (4-NP) a 4-amminofenolo (4-AP).
Resumo:
In questo lavoro di tesi è stata investigata la possibilità di utilizzare i metallo-esacianoferrati, in particolare il nichel-esacianoferrato (NiHCF) ed indio-esacianoferrato (InHCF), come setacci ionici, per la rimozione selettiva di cationi di terre rare. In particolare si è voluto studiare l’influenza di cationi diversi dal K+ e la loro capacità di intercalare nel reticolo cristallino dell’InHCF e NiHCF. Grazie alla proprietà di scambio ionico, gli esacianoferrati sono in grado di fungere da setacci ionici. I cationi (ad esempio K+) intercalati nella struttura possono essere scambiati con cationi più pesanti, fino al raggiungimento di un certo limite, dopo il quale un ulteriore scambio è sfavorito dalle interazioni repulsive tra gli ioni carichi positivamente. I campioni di indio-esacianoferrato (InHCF) e nichel-esacianoferrato (NiHCF) sono stati sintetizzati sia per via elettrochimica che per via chimica e sono stati caratterizzati utilizzando tecniche elettrochimiche (in particolare la voltammetria ciclica), IR, XRF, TGA e TEM. In questo studio è stato dimostrato come l’InHCF ed il NiHCF riescano a scambiare in modo selettivo cationi di terre rare e possano quindi essere considerati ottimi candidati nella sintesi e produzione di setacci molecolari.
Resumo:
L’osteoartrosi è la malattia delle articolazioni più comune al mondo ed è spesso causa di condizioni fortemente disabilitanti. Date le limitazioni dei trattamenti attualmente proposti per la gestione dei pazienti osteoartrosici è di grande interesse la ricerca di soluzioni alternative. A tal fine Fin-Ceramica S.p.A. desidera progettare un innovativo sostituto osteocondrale in collagene attivato con un’emergente classe di macromolecole polimeriche: i dendrimeri. Questi polimeri offrono un’unica opportunità di mostrare all’interfaccia con il tessuto naturale una pluralità di gruppi funzionali favorendo, con un’adeguata ingegnerizzazione, le interazioni biologiche e sostenendo la vitalità e l’attività cellulare. In questo lavoro di tesi, con in mente una futura convalida di processo necessaria a garantire la sicurezza e l’affidabilità del prodotto, sono stati sviluppati nuovi metodi per verificare ed ottimizzare la reazione di sintesi del dendrimero, per caratterizzare il materiale ottenuto e per creare legami covalenti fra collagene e dendrimero attivando potenzialmente il sostituto osteocondrale. Il primo obiettivo è stato conseguito sfruttando la presenza o l’assenza di gruppi amminici disponibili ai terminali del dendrimero in crescita e la formazione di un prodotto di scarto cromoforo durante la sintesi. In relazione a questi elementi sono stati individuati metodi semplici ed efficaci, quali la spettrofotometria ultravioletta ed i saggi colorimetrici con TNBS e ninidrina, per monitorare ogni step di reazione portandolo a compimento e ricavare i tempi necessari a tale scopo. Il dendrimero ottenuto è stato quindi caratterizzato tramite spettrometria infrarossa in trasformata di Fourier. Nota la composizione teorica della nostra macromolecola quest’analisi ha consentito l’identificazione del materiale prodotto ed ha inoltre permesso di dimostrare la ripetibilità dello specifico processo di sintesi dendrimerica. Infine per individuare una possibile procedura di funzionalizzazione del collagene con il dendrimero sono stati sperimentati due differenti metodi relativi a due diversi agenti crosslinkanti. Per rilevare un’eventuale modifica delle proprietà superficiali dei campioni realizzati, conseguente alla presenza dei dendrimeri, ne è stata valutata la bagnabilità attraverso la misura dell’angolo di contatto. La determinazione per uno dei due metodi di un significativo aumento di idrofilicità rispetto al campione di controllo ha verificato la fattibilità della reazione di funzionalizzazione del collagene con il dendrimero sintetizzato in questa ricerca identificando un possibile reagente ed una relativa procedura. I risultati ottenuti da queste ricerche costituiscono informazioni necessarie all’attività di convalida del processo di sintesi del dendrimero ed alla realizzazione del sostituto osteocondrale attivato progettato da Fin-Ceramica.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
L'attuale processo di sviluppo del software è abbastanza lontano dai canoni di sistematicità e correttezza propri di altre aree dell'ingegneria. L'obiettivo di questa Tesi è quello di fornire metodologie e strumenti realmente ingegneristici per la costruzione del software, attraverso l'introduzione di linguaggi general purpose per l'analisi e la progettazione, di robustezza industriale e con semantica formalmente definita. A partire da frasi corrette in tali linguaggi, le quali costituiscono a tutti gli effetti modelli di sistemi software, ci si propone la completa generazione del codice corrispondente.
Resumo:
L’obbiettivo del lavoro è la messa a punto di membrane polimeriche nanoporose funzionalizzate con la N-metil-D-glucamina (NMDG), per la rimozione dell’arsenico dalle acque. Al fine di ottenere membrane con proprietà di filtro molecolare selettivo, si è deciso di sfruttare la capacità della NMDG di chelare selettivamente gli ossianioni dell’arsenico. La NMDG è stata funzionalizzata in maniera da ottenere due monomeri: metacrilato della N-metil-D-glucammina e 4-vinilbenzil-N-metil-D-glucammina, sui quali è stata effettuata una sililazione dei gruppi ossidrilici della glucammina in maniera da ottenere composti liquidi e quindi adatti al processo produttivo delle membrane. Con l’obbiettivo di ottenere un elevata area superficiale la morfologia della membrana è stata controllata mediante imprinting di nanoparticelle di silice colloidale. La cattura del arsenico da parte delle membrane polimeriche è stata valutata mediante analisi di assorbimento atomico a seguito dell’attacco acido con HF 5% che rimuove le particelle di silice ed i gruppi protettori.
Resumo:
Questo elaborato analizza alcuni dei principali metodi di estrazione del contenuto di un'immagine digitale, descrivendone il funzionamento. É possibile consultare un'ampia quantità di test effettuati su 7 dataset con caratteristiche eterogenee al fine di valutarne le performance a seconda dei casi di utilizzo.