566 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di verificare il corretto dimensionamento dei cuscinetti e delle guide lineari di un gruppo all’interno di una macchina automatica brevettata e realizzata da Manz Srl, azienda in collaborazione con la quale è stato svolto il progetto. La macchina automatica in esame è parte di una linea di produzione di batterie rettangolari a partire da nastri di materia prima e impiega l’innovativo processo di wound stacking. Per eseguire la verifica dei componenti è stato necessario effettuare una simulazione dinamica con il software MSC Adams, grazie al quale si sono potute calcolare le reazioni vincolari. In parallelo al modello Adams, è stato realizzato anche un modello MATLAB, con cui poter confrontare i risultati del software multibody per validarli. Stabiliti i periodi previsti di manutenzione della linea e un coefficiente di sicurezza richiesto, si sono individuati i componenti che non rispettavano le specifiche dei progettisti. Alla fine della tesi si propongono anche delle soluzioni per la sostituzione di alcuni componenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il progetto descritto in questo elaborato di tesi è stato svolto presso Il Centro Protesi INAIL (Vigorso di Budrio, BO). Il lavoro è stato realizzato a supporto di un progetto di ricerca, finanziato dal Dipartimento della Difesa USA, in collaborazione con la Northwestern University di Chicago e il Minneapolis Veteran Affairs Health Care Sytem. La ricerca ha lo scopo di determinare l’efficacia comparativa di metodi alternativi per realizzare il calco del moncone dell’amputato di arto inferiore e la successiva invasatura su misura. Il progetto di tesi nasce dall’assenza di un software commerciale in grado di analizzare come evolve la forma del moncone, dal calco all'invasatura finita, basandosi sulla digitalizzazione tridimensionale delle superfici. La libreria sviluppata è implementata in Python e utilizza algoritmi e strumenti di geometria computazionale al fine di supportare i processi di elaborazione dati. Il flusso di lavoro si sviluppa nelle seguenti fasi: • Acquisizione e pre-processing del dato; • Identificazione digitale dei punti di repere; • Allineamento dei modelli per orientarli in un sistema di riferimento globale secondo una logica comune; • Registrazione di due modelli per allinearli l’uno all’altro; • Generazione di outcome e parametri dimensionali, derivanti da mappe distanza, sezioni, cammini geodetici e regioni di interesse; • Estrazione di indicatori statistici riassuntivi delle differenze, correlate ad un insieme di scansioni tramite la PCA. Le funzionalità sono state validate tramite appositi test su dati clinici rilevati dallo studio o dati sintetici con caratteristiche note a priori. La libreria fornisce un insieme di interfacce che permette l’accesso anche a utenti non esperti ed è caratterizzata da modularità, semplicità di installazione ed estensibilità delle funzionalità. Tra gli sviluppi futuri si prevede l’identificazione di possibili ottimizzazioni individuate da un utilizzo degli strumenti esteso a più casi d’uso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Segmentare un’immagine significa riconoscere al suo interno elementi con caratteristiche comuni e raggrupparli, distinguendoli dagli elementi che posseggono caratteristiche diverse; si parla di segmentazione automatica quando questo processo è eseguito completamente da un software senza l’intervento umano. Segmentare le immagini TC, molto diffuse in ambito diagnostico, permette di estrarre una grande quantità di dati dall’alto valore prognostico e predittivo della composizione corporea del paziente. Tuttavia, a causa della scarsa diffusione di software per la segmentazione automatica, tutti questi dati non vengono utilizzati. Il presente lavoro di tesi si propone di riportare lo stato dell’arte sulla segmentazione, sia manuale sia automatica, dei tessuti corporei in immagini TC. Vengono spiegati i vantaggi dell’utilizzo di grandezze CT-derived rispetto a molti dei protocolli odierni e vengono esposti gli attuali livelli di accuratezza delle segmentazioni effettuate con metodi automatici. Inoltre, ci si sofferma, cercando di quantificarli, sugli effetti del mezzo di contrasto sulle grandezze CT-derived, poiché questi possono generare errori nella segmentazione automatica dei tessuti. Infine, viene esposto l’approccio 3D alla segmentazione in contrapposizione al metodo single slice, con il primo caratterizzato da un’accuratezza maggiore del secondo. Per accedere alla versione aggiornata e corretta, contattare l'autore ai seguenti indirizzi: simone.chiarella@studio.unibo.it; simonechiarella99@gmail.com

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il progetto ANTE riguarda i nuovi sistemi di traduzione automatica (TA) e la loro applicazione nel mondo delle imprese. Lo studio prende spunto dai recenti sviluppi legati all’intelligenza artificiale e ai Big Data che negli ultimi anni hanno permesso alla TA di raggiungere livelli qualitativi molto elevati, al punto tale da essere impiegata da grandi multinazionali per raggiungere nuove quote di mercato. La TA può rispondere positivamente anche ai bisogni delle imprese di piccole dimensioni e a basso tenore tecnologico, migliorando la qualità delle comunicazioni multilingue attraverso delle traduzioni in tempi brevi e a costi contenuti. Lo studio si propone quindi di contribuire al rafforzamento della competitività internazionale delle piccole e medie imprese (PMI) emiliano- romagnole, migliorando la loro capacità di comunicazione in una o più lingue straniere attraverso l’introduzione e l’utilizzo efficace e consapevole di soluzioni ICT di ultima generazione e fornire, così, nuove opportunità di internazionalizzazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un sistema di cifratura IBE (Identity-Based Encription Scheme) si basa su un sistema crittografico a chiave pubblica, costituita però in questo caso da una stringa arbitraria. Invece di generare una coppia casuale di chiavi pubbliche e private e pubblicare la prima, l'utente utilizza come chiave pubblica la sua "identità", ovvero una combinazione di informazioni opportune (nome, indirizzo...) che lo identifichino in maniera univoca. In questo modo ad ogni coppia di utenti risulta possibile comunicare in sicurezza e verificare le reciproche firme digitali senza lo scambio di chiavi private o pubbliche, senza la necessità di mantenere una key directory e senza dover ricorrere ogni volta ai servizi di un ente esterno. Nel 2001 Boneh e Franklin proposero uno schema completamente funzionante con sicurezza IND-ID-CCA, basato su un analogo del problema computazionale di Diffie-Hellman e che da un punto di vista tecnico-matematico utilizza la crittografia su curve ellittiche e la mappa bilineare Weil Pairing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi di laurea compie uno studio sull’ utilizzo di tecniche di web crawling, web scraping e Natural Language Processing per costruire automaticamente un dataset di documenti e una knowledge base di coppie verbo-oggetto utilizzabile per la classificazione di testi. Dopo una breve introduzione sulle tecniche utilizzate verrà presentato il metodo di generazione, prima in forma teorica e generalizzabile a qualunque classificazione basata su un insieme di argomenti, e poi in modo specifico attraverso un caso di studio: il software SDG Detector. In particolare quest ultimo riguarda l’applicazione pratica del metodo esposto per costruire una raccolta di informazioni utili alla classificazione di documenti in base alla presenza di uno o più Sustainable Development Goals. La parte relativa alla classificazione è curata dal co-autore di questa applicazione, la presente invece si concentra su un’analisi di correttezza e performance basata sull’espansione del dataset e della derivante base di conoscenza.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sin dal suo ingresso nel mercato della traduzione, la machine translation (MT) è stata impiegata in numerosi settori professionali e ha suscitato l’interesse del grande pubblico. Con l’avvento della traduzione automatica neurale, la MT ha avuto un ulteriore impulso e ci si è iniziati a interrogare sulla possibilità di estenderne il raggio d’azione all’ambito letterario, che sembra tuttora non toccato dagli automatismi delle macchine in virtù della funzione espressiva e del contenuto creativo dei testi. Il presente elaborato nasce quindi con l’obiettivo di valutare l’effettiva applicabilità della traduzione automatica in ambito letterario attraverso un’attenta analisi dell’output prodotto dalla MT supportata da un confronto con la traduzione svolta da un professionista. Questa analisi si baserà sulla traduzione di un estratto del romanzo Hunger Games di Suzanne Collins e le traduzioni verranno effettuate da due dei migliori software di traduzione automatica neurale attualmente sul mercato: ModernMT e DeepL. Una volta terminata la valutazione dei singoli output verranno mostrati i risultati e determinati i limiti e i vantaggi della machine translation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’oggetto di questo elaborato è lo studio computazionale, a livello della teoria del funzionale della densità (DFT) e della sua formulazione dipendente dal tempo (TD-DFT), dei dimeri della molecola di rodamina-B, parallelo allo sviluppo di una procedura di tuning ottimale del funzionale CAM-B3LYP. Questa molecola, che assume notevole rilevanza nei sistemi light harvesting grazie alle sue proprietà fotochimiche di emissione nel visibile, è impiegata nella sintesi di nanoparticelle (NPs) fluorescenti in ambito di diagnostica medica e bio-imaging, che sfruttano il fenomeno di trasferimento di energia per risonanza (FRET). Per via della notevole importanza che questa molecola riveste nell’ambito della fotochimica, essa è stata oggetto di esperimenti del gruppo di ricerca del laboratorio di biofotonica e farmacologia “Nanochemistry and Bioimaging”, che collabora con il gruppo di chimica computazionale dell’area chimico/fisica del Dipartimento. La dimerizzazione della rodamina all’interno delle NPs può innescare canali di self-quenching che abbassano la resa quantica di fluorescenza, pregiudicando l’efficienza dei dispositivi: l’obiettivo dello studio è la caratterizzazione dei dimeri, in solventi e con controioni diversi, impiegando dei modelli molecolari, per identificarne le specie più stabili e descrivere la fotofisica degli stati elettronici eccitati. Il carattere generalmente charge-transfer (CT) di questi stati elettronici richiede un “tuning ottimale” della metodologia computazionale DFT/TD-DFT per una descrizione quantitativa accurata.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dopo aver illustrato i concetti chiave della teoria delle varie classi di complessità computazionale, l'elaborato si pone come obiettivo quello di inserire in una classe di complessità il seguente problema: "Quanto è difficile salvare la principessa in Super Mario Bros?". Analizzeremo 3 varianti diversi del gioco, e per ognuna di essi daremo un risultato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I generatori compatti di neutroni possono rappresentare un grande progresso nell'ambito della Medicina Nucleare. Sono una valida alternativa rispetto ai metodi tradizionali per la produzione dei radioisotopi necessari per la sintesi dei radiofarmaci, e permettono di esplorare e sviluppare nuove metodologie radioterapeutiche innovative, complementari e potenzialmente più efficaci rispetto a quelle già esistenti. Enea sta portando avanti due progetti in questo ambito. Il primo, SORGENTINA-RF, è volto allo sviluppo di una macchina in grado di produrre un fascio di neutroni a 14MeV, con la quale irradiare un target di molibdeno metallico, in modo da ottenere tecnezio-99 metastabile (99mTc), il radioisotopo più usato al mondo nelle procedure di imaging biomedico. Il secondo progetto, LINC-ER, ha lo scopo di progettare le infrastrutture necessarie ad accogliere un generatore compatto di neutroni, il cui scopo sarà quello di eliminare le residue cellule tumorali dopo un intervento chirurgico, a ferita aperta, in modo simile alle attuali tecniche di radioterapia intraoperatoria, che però sfruttano elettroni o raggi X. Questo lavoro di tesi trova posto in questi progetti perché ha contributo a portare avanti le ricerche in due aspetti specifici. Nel caso di SORGENTINA-RF, sono stati studiati tutti gli aspetti radiochimici per ottenere dal molibdeno metallico la soluzione liquida di molibdato sodico da cui si estrae il 99mTc. In questo caso si è deciso di puntare su processo “green” e innovativo basato sull’uso di perossido di idrogeno. Durante la tesi si sono studiati i più importanti fattori che governano questo processo e si è definito un meccanismo chimico che lo spiega. Nel caso di LINC-ER, invece, il lavoro sperimentale è stato quello di studiare metodi e rotte sintetiche nuove per ottenere nanoparticelle di composti di boro e bario, dispersi in hydrogels in grado di amplificare gli effetti del fascio neutronico sui tessuti cancerogeni e ridurli su quelli sani.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’Industria 4.0 richiede sempre più tecnologie con un notevole grado di flessibilità, in modo da garantire il più alto livello di integrazione uomo-macchina e macchina- macchina. In quest’ottica, l’avvento della robotica collaborativa, ha agevolato il pro- cesso. I robot collaborativi (cobot) possono essere facilmente installati all’interno del- le linee di assemblaggio/produzione, senza necessità di barriere che vietino l’accesso agli operatori. Tra i tanti compiti a cui possono asservire i cobot, ci sono quelli dedica- ti all’ispezione delle varie macchine (e.g. microfermate di emergenza), in cui di solito, l’apertura del pannello di protezione è affidata ad un cobot montato a bordo di un AGV. È in questo contesto che si inserisce l’elaborato di tesi, volto al controllo in forza di un robot collaborativo per la movimentazione di un pannello di protezione di una mac- china automatica. In particolare, per ragioni logistiche e di ingombro, un simulacro del pannello di protezione è stato realizzato in scala, mentre il controllo real-time del cobot è stato implementato utilizzando ROS (Robot Operating System), piattaforma disponibile in modalità open-source.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'evoluzione di nuove tecnologie e la nascita di nuove tecniche di pagamento digitale, oltre che migliorare l'esperienza del cliente rendendo più semplice effettuare transazioni, ha portato con sè anche dei rischi per gli utilizzatori. L'elaborato vuole analizzare la sicurezza e le tecniche crittografiche utilizzate nei principali metodi di pagamento digitale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Associare nomi propri a volti di persona è un compito importante, fondamentale nella quotidianità di tutti i giorni. Nonostante questa operazione avvenga quasi sempre in maniera automatica, essa coinvolge una rete neurale complessa ed articolata. Diversi studi offrono strategie che possono aiutare in questo compito; in particolare, è stato riportato che rafforzare i nomi con stimoli cross-modali, ossia presentando più input sensoriali esterni contemporaneamente, può costituire un vantaggio per il recupero in memoria dei nomi stessi. Lo scopo di questa tesi è stato quello di svolgere un’analisi di sensibilità tramite un modello neuro-computazionale su MatLab di ispirazione biologica. Nello specifico sono stati considerati due macro-network: uno per i volti, l’altro per i nomi propri; quest’ultimo in particolare a sua volta si compone di tre aree uni-sensoriali, ciascuna delle quali corrisponde ad un modo specifico con cui codificare un nome (traccia audio, lip reading, name tag). Questi network sono stati dunque implementati attraverso una configurazione articolata su due strati: si potrebbe infatti pensare alla fase di addestramento, basata su un algoritmo hebbiano, come un primo layer del processo, seguito così da un secondo layer, dato invece dalla fase di utilizzo. Dalle simulazioni svolte sembra emergere che addestrare in maniera efficiente le connessioni fra le aree uni-sensoriali dei nomi, ricreando così un'integrazione multi-sensoriale, sia un fattore fondamentale per favorire non solo il ricordo di un nome in sé, ma anche processi mnemonici-associativi che coinvolgono anche lo stimolo visivo di un volto. Le evidenze prodotte risultano inoltre qualitativamente coerenti con analoghi esperimenti in vivo.