368 resultados para Crittografia Computazionale Generatori Pseudocasuali Dimostrazione Automatica CryptoVerif


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il periodo in cui viviamo rappresenta la cuspide di una forte e rapida evoluzione nella comprensione del linguaggio naturale, raggiuntasi prevalentemente grazie allo sviluppo di modelli neurali. Nell'ambito dell'information extraction, tali progressi hanno recentemente consentito di riconoscere efficacemente relazioni semantiche complesse tra entità menzionate nel testo, quali proteine, sintomi e farmaci. Tale task -- reso possibile dalla modellazione ad eventi -- è fondamentale in biomedicina, dove la crescita esponenziale del numero di pubblicazioni scientifiche accresce ulteriormente il bisogno di sistemi per l'estrazione automatica delle interazioni racchiuse nei documenti testuali. La combinazione di AI simbolica e sub-simbolica può consentire l'introduzione di conoscenza strutturata nota all'interno di language model, rendendo quest'ultimi più robusti, fattuali e interpretabili. In tale contesto, la verbalizzazione di grafi è uno dei task su cui si riversano maggiori aspettative. Nonostante l'importanza di tali contributi (dallo sviluppo di chatbot alla formulazione di nuove ipotesi di ricerca), ad oggi, risultano assenti contributi capaci di verbalizzare gli eventi biomedici espressi in letteratura, apprendendo il legame tra le interazioni espresse in forma a grafo e la loro controparte testuale. La tesi propone il primo dataset altamente comprensivo su coppie evento-testo, includendo diverse sotto-aree biomediche, quali malattie infettive, ricerca oncologica e biologia molecolare. Il dataset introdotto viene usato come base per l'addestramento di modelli generativi allo stato dell'arte sul task di verbalizzazione, adottando un approccio text-to-text e illustrando una tecnica formale per la codifica di grafi evento mediante testo aumentato. Infine, si dimostra la validità degli eventi per il miglioramento delle capacità di comprensione dei modelli neurali su altri task NLP, focalizzandosi su single-document summarization e multi-task learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'estrazione automatica degli eventi biomedici dalla letteratura scientifica ha catturato un forte interesse nel corso degli ultimi anni, dimostrandosi in grado di riconoscere interazioni complesse e semanticamente ricche espresse all'interno del testo. Purtroppo però, esistono davvero pochi lavori focalizzati sull'apprendimento di embedding o di metriche di similarità per i grafi evento. Questa lacuna lascia le relazioni biologiche scollegate, impedendo l'applicazione di tecniche di machine learning che potrebbero dare un importante contributo al progresso scientifico. Approfittando dei vantaggi delle recenti soluzioni di deep graph kernel e dei language model preaddestrati, proponiamo Deep Divergence Event Graph Kernels (DDEGK), un metodo non supervisionato e induttivo in grado di mappare gli eventi all'interno di uno spazio vettoriale, preservando le loro similarità semantiche e strutturali. Diversamente da molti altri sistemi, DDEGK lavora a livello di grafo e non richiede nè etichette e feature specifiche per un determinato task, nè corrispondenze note tra i nodi. A questo scopo, la nostra soluzione mette a confronto gli eventi con un piccolo gruppo di eventi prototipo, addestra delle reti di cross-graph attention per andare a individuare i legami di similarità tra le coppie di nodi (rafforzando l'interpretabilità), e impiega dei modelli basati su transformer per la codifica degli attributi continui. Sono stati fatti ampi esperimenti su dieci dataset biomedici. Mostriamo che le nostre rappresentazioni possono essere utilizzate in modo efficace in task quali la classificazione di grafi, clustering e visualizzazione e che, allo stesso tempo, sono in grado di semplificare il task di semantic textual similarity. Risultati empirici dimostrano che DDEGK supera significativamente gli altri modelli che attualmente detengono lo stato dell'arte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato di tesi si affronta uno studio inerente alla Manutenzione su Condizione (CBM), applicata ad una macchina automatica adibita alla produzione di capsule in plastica, in collaborazione con il gruppo SACMI S.C. di Imola. Nel Capitolo 1 viene fornita una introduzione sul tema della manutenzione e sulla sua evoluzione dalla prima rivoluzione industriale ad oggi. Nel Capitolo 2 vengono descritti i principi teorici della manutenzione predittiva e se ne analizza lo stato dell’arte. Nel Capitolo 3 viene fornita una introduzione sull’azienda SACMI S.C. e in seguito vengono descritte nel dettaglio le macchine sulle quali si sono concentrate le successive analisi. Nel Capitolo 4 viene approfondito l’estrusore, uno dei componenti principali delle macchine analizzate. Nel Capitolo 5 viene presentato un esempio di valutazione dell’efficienza di alcune macchine collegate in serie attraverso il calcolo di un indicatore chiamato Overall Equipment Effectiveness (OEE). Il Capitolo 6 rappresenta il cuore della tesi e contiene tutte le analisi di CBM effettuate durante il periodo di tirocinio. Vengono analizzati i principali gruppi funzionali della macchina a partire da quelli più critici per tempi o costi di manutenzione. Le analisi sono state condotte ricercando all’interno di tutto il parco macchine quelle che presentavano delle condizioni di funzionamento sospette. Nel Capitolo 7 vengono presentate alcune analisi relative ai tempi di fermo macchina dovuti alle manutenzioni preventive e ai costi dei ricambi previsti dal manuale di manutenzione. Queste analisi vengono poi declinate su un caso reale nel quale si calcola il costo dei ricambi negli ultimi cinque anni distinguendo tra costi dovuti ad azioni preventive o correttive. Nel Capitolo 8 vengono presentate le conclusioni, mentre nel Capitolo 9 sono presentati gli sviluppi futuri di questo lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di laurea si pone l’obiettivo di investigare alcune delle nuove frontiere offerte dalla crescita sincretica e multidisciplinare dei linguaggi digitali applicati all’architettura e ai beni culturali. Si approfondiranno i concetti teorici fondamentali dell’informazione digitale: il web semantico come ambiente di scambio, i metadata come informazioni sui dati, i LOD (Link Open Data) come standard e fine. Per l’ambito dei beni culturali verranno presentati i temi di ricerca e sviluppo nel campo della catalogazione e fruizione digitali: ontologie, dizionari normalizzati aperti, database (Catalogo Digitale), etc. Per l’ambito edilizio-architettonico verrà introdotto l’Heritage Building Information Modeling (HBIM) semantico come metodologia multidisciplinare focalizzata su rilievo geometrico, modellazione, archiviazione e scambio di tutte le informazioni utili alla conoscenza e conservazione dei beni storici. Il punto d’incontro tra i due mondi è individuato nella possibilità di arricchire le geometrie attraverso la definizione di una semantica (parametri-metadati) relazionata alle informazioni (valori-dati) presenti nei cataloghi digitali, creando di fatto un modello 3D per architetture storiche con funzione di database multidisciplinare. Sarà presentata la piattaforma web-based Inception, sviluppata dall’omonima startup incubata come spinoff dall’Università di Ferrara, che, tra le diverse applicazioni e potenzialità, verrà utilizzata come strumento per la condivisione e fruizione, garantendo la possibilità di interrogare geometrie e metadati in continuità con i principi LOD. Verrà definito un workflow generale (procedure Scan2BIM, modellazione geometrica, definizione script per l’estrazione automatica dei dati dal Catalogo Digitale, associazione dati-geometrie e caricamento in piattaforma) successivamente applicato e adattato alle precise necessità del caso studio: la Chiesa di S. Maria delle Vergini (MC), su commissione dell’ICCD referente al MiBACT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’importanza delle api per la vita sulla Terra ed il rischio alle quali sono sottoposte per via dell’azione dell’uomo sono ormai un dato di fatto. La concezione antropocentrica della natura e l’allevamento al solo fine produttivo di questi piccoli insetti, ha da sempre danneggiato il loro habitat e interferito con i loro cicli biologici. L’apicoltura, nata come un rapporto mutualistico in cui l’uomo offriva un rifugio alle api e loro in cambio provvedevano al suo nutrimento, si è trasformato in una dannosa dipendenza ed in un assoggettamento di questi insetti ai ritmi artificiali e tutt’altro che naturali della produzione rapida e seriale volta all’ottenimento di un profitto. Un’evidente prova di questa condizione, sono i rifugi per le api, le arnie. Ci siamo mai chiesti perché le arnie hanno questa forma? È quella che preferiscono le api, o quella che rende più pratici e veloci processi di costruzione, gestione e produzione? In natura le api colonizzano cavità quali tronchi cavi di alberi, forme lontane, per non dire diametralmente opposte a quelle in cui le vediamo vivere negli allevamenti. In questa ottica, il design e le nuove tecnologie, poste al servizio della Natura, conducono ad un punto di incontro tra le esigenze umane e quelle degli altri esseri viventi, delle api in questo caso. I concetti di Additive Manufacturing e Design Computazionale, permettono processi di produzione simili a quelli evolutivi naturali e trovano per questa motivazione un’applicazione ideale per progetti che si pongono come fine quello di discostarsi da una visione troppo artificiale, per riavvicinarsi alla perfezione e all’armonia delle leggi della Natura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi tratta del problema isoperimetrico nel piano, ossia di trovare, se esiste, il dominio che, a parità di perimetro (inteso come lunghezza del bordo), massimizza l'area. Intuitivamente la risposta pare piuttosto semplice: il cerchio è il dominio che ha area massima, ma la dimostrazione è tutt'altro che banale. Inizialmente verranno presentate le proprietà isoperimetriche dei poligoni regolari: tra tutti i poligoni con un numero fissato di lati n e perimetro fissato p, il poligono regolare di n lati e di perimetro p è l'unico che massimizza l'area. Nel seguito si generalizza questo fatto a un qualunque dominio limitato del piano il cui bordo è una curva chiusa, semplice e assolutamente continua. Infatti, nelle ipotesi appena dette, vale che l’area è minore o uguale di una certa costante moltiplicata per il quadrato della lunghezza del bordo, e si ha l'uguaglianza se e solo se il bordo è una circonferenza. Infine, nell'ultimo capitolo, viene data la dimostrazione, sorprendentemente semplice, della disuguaglianza isoperimetrica dovuta a Hélein per un aperto lipschitziano, facente uso del solo Teorema di Stokes applicato ad un particolare campo vettoriale ispirato alla teoria delle calibrazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La difficoltà nello studio del calcolo combinatorio e della probabilità è una condizione diffusa all'interno del corso di ingegneria e scienze informatiche. Parte del problema è sicuramente l'approccio concreto condiviso da molti studenti, il quale si scontra con l'aspetto teorico di questa materia. Per questa forma mentis, lo studente è portato a dubitare di molte regole e teoremi (specie se contro intuitivi) anche dopo averne visto la dimostrazione. Ciò che questo tipo di studente trova più convincente è invece la prova pratica. La realizzazione di questo progetto parte da quest'idea, fornire agli studenti dimostrazioni pratiche attraverso la simulazione di contesti reali, offrendo la possibilità di confrontare i risultati di dette simulazioni con quelli enunciati nei teoremi. A tale scopo, una parte importante del lavoro è stata la realizzazione di grafici chiari ed esaustivi, che permettano di confrontare i risultati ottenuti con quelli attesi in maniera rapida ed intuitiva. Ciò non di meno, la realizzazione di alcune delle simulazioni ha comportato delle sfide tecniche nel produrre e maneggiare grosse moli di dati, nell'utilizzo di dataset di dati reali e nell'aspetto presentazionale dei risultati. Speriamo, attraverso la consultazione dell'elaborato analizzato di seguito, di semplificare lo studio ad alcuni studenti, aiutarli ad interiorizzare concetti basilari e non, fornendogli uno strumento per studiare più adatto a loro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Supply Chain Management è una rete di strutture che producono materie prime e le trasformano in prodotti finiti da consegnare ai clienti. Per gestire in maniera efficace l’impresa, l’intera struttura della catena di approvvigionamento deve seguire il flusso aziendale correttamente, in modo da non creare rallentamenti nella fornitura e causare problemi al soddisfacimento dei bisogni del cliente. Questo elaborato analizza tutte le componenti che influiscono sul successo di una supply chain, in particolare la funzione strategica degli acquisti, evidenziandone le principali problematiche che si possono riscontrare e le soluzioni che invece si possono applicare. Gli acquisti, che nascono dalla richiesta di un bisogno da soddisfare, sono da considerarsi un vantaggio competitivo e di redditività per un’azienda, in quanto incidono direttamente sul fatturato totale, motivo per cui sono stati oggetto dello studio. L’acquisto deve rispecchiare le specifiche tecniche e funzionali richieste, al fine di soddisfare i bisogni del cliente. Analizzando tale reparto presso l’azienda Termotecnica Industriale S.r.l., una Piccola Media Impresa (PMI) che si occupa di progettazione, fabbricazione ed installazione di caldaie industriali e generatori di vapore a recupero di calore, si è ricercato un nuovo modello di approvvigionamento da seguire. L’obiettivo di questa analisi è di sviluppare una strategia aziendale che gestisca in maniera corretta la catena di fornitura, ottenendo migliori condizioni contrattuali ed evitare problemi come gli acquisti a collo di bottiglia. E’ stato necessario, individuare una nuova metodologia che aiutasse i buyer a instaurare il giusto rapporto col fornitore selezionato, in funzione all’acquisto che si sta per compiere. Infatti per ogni tipologia di approvvigionamento ci sono approcci differenti da utilizzare con i fornitori per ottenere delle agevolazioni rispetto a quanto offerto in precedenza dello stesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al contrario dei computer classici, i computer quantistici lavorano tramite le leggi della meccanica quantistica, e pertanto i qubit, ovvero l'unità base di informazione quantistica, possiedono proprietà estremamente interessanti di sovrapposizione ed entanglement. Queste proprietà squisitamente quantistiche sono alla base di innumerevoli algoritmi, i quali sono in molti casi più performanti delle loro controparti classiche. Obiettivo di questo lavoro di tesi è introdurre dal punto di vista teorico la logica computazionale quantistica e di riassumere brevemente una classe di tali algoritmi quantistici, ossia gli algoritmi di Quantum Phase Estimation, il cui scopo è stimare con precisione arbitraria gli autovalori di un dato operatore unitario. Questi algoritmi giocano un ruolo cruciale in vari ambiti della teoria dell'informazione quantistica e pertanto verranno presentati anche i risultati dell'implementazione degli algoritmi discussi sia su un simulatore che su un vero computer quantistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricostruzione delle traiettorie delle particelle prodotte dai vertici di interazione a LHC è di fondamentale importanza per tutti gli esperimenti. Questo passo è uno dei più dispendiosi in termini di tempo e calcolo computazionale nella catena di ricostruzione dell’evento e diventa sempre più complesso con l’aumentare del numero di collisioni. L’esperimento CMS adotta un rivelatore di tracciamento con tecnologia al silicio, dove la parte più interna sfrutta rivelatori con geometria a pixel, mentre la parte esterna utilizza delle strisce di silicio. Per quanto riguarda la ricostruzione nel rivelatore a pixel, sono stati sviluppati diversi algoritmi ottimizzati per fronteggiare l’alto rate di acquisizione dati, sfruttando anche il calcolo parallelo su GPU, con un’efficienza di tracciamento comparabile o superiore agli algoritmi precedentemente utilizzati. Questi nuovi algoritmi sono alla base del software Patatrack per la ricostruzione delle traiettorie. Il lavoro descritto in questa tesi punta ad adattare Patatrack ad una geometria diversa e più complessa di quella di CMS e di valutarne le prestazioni di fisica e computazionali. Sono stati utilizzati i dati forniti dalla TrackML challenge, il cui scopo è incentivare lo sviluppo di nuovi algoritmi di ricostruzione di tracce per gli esperimenti in fisica delle alte energie. E' stato condotto uno studio approfondito della nuova geometria per potervi successivamente adattare il software esistente. Infine, la catena di ricostruzione è stata modificata per poter utilizzare i dati forniti dalla TrackML challenge e permettere la ricostruzione delle traiettorie.