678 resultados para P2P, Bilanciamento, Traffico, Reti, GGrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avvento dell’Internet of Things, in parallelo con il sempre più diffuso fenomeno della sensorizzazione, ha aperto la strada allo sviluppo di numerose tecnologie, tra le quali sono presenti anche i Digital Twin. Se inizialmente l’idea di Digital Twin era limitata a mantenere una copia virtuale di un oggetto fisico, con il passare del tempo questa visione si è ampliata, permettendo di riprodurre in un ambiente virtuale interi sistemi, come ad esempio città ed ospedali. Questi sistemi sono costituiti da vere e proprie reti di Digital Twin, tra loro connessi attraverso l’uso di relazioni. A questo proposito le sfide sono presenti e numerose: quel che manca è una visione unica e condivisa riguardante l’organizzazione di tali sistemi. Sotto questo aspetto, una delle proposte è il Web of Digital Twin, di cui verrà discusso all’intero della tesi. L’obiettivo di questa tesi è quello di capire come è possibile realizzare ecosistemi di Digital Twin coerenti con i principi del WoDT, attraverso la piattaforma Azure Digital Twin. A tale scopo è anche esposto un caso di studio pratico che comprende la prototipazione di un sistema di questo tipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questa tesi `e l’estensione della conoscenza di un argomento già ampliamente conosciuto e ricercato. Questo lavoro focalizza la propria attenzione su una nicchia dell’ampio mondo della virtualizzazione, del machine learning e delle tecniche di apprendimento parallelo. Nella prima parte verranno spiegati alcuni concetti teorici chiave per la virtualizzazione, ponendo una maggior attenzione verso argomenti di maggior importanza per questo lavoro. La seconda parte si propone di illustrare, in modo teorico, le tecniche usate nelle fasi di training di reti neurali. La terza parte, attraverso una parte progettuale, analizza le diverse tecniche individuate applicandole ad un ambiente containerizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato si propone di raccogliere e dettagliare il lavoro svolto presso l’azienda Motori Minarelli durante il tirocinio curricolare. Minarelli ha dato l’avvio ad un nuovo progetto di nome ISSIMO e conseguentemente si è trovata ad approcciare una nuova tipologia di prodotto da assemblare attraverso linea di montaggio: una bicicletta elettrica. Il compito dell’azienda bolognese era quello di progettare e implementare la linea produttiva per la commercializzazione dell’e-bike. Al giorno d’oggi una buona progettazione del ciclo produttivo è alla base per la generazione di prodotti eccellenti e di qualità, per questo il ciclo di assemblaggio è stato definito tramite l’applicazione di una serie di algoritmi euristici di line balancing, per definire la struttura della linea di montaggio e la sequenza di produzione. Si è divisa la trattazione in quattro parti distinte: la prima parte è una analisi storica che parte dalla nascita della catena di montaggio sino alla teoria degli algoritmi di bilanciamento; la seconda parte permette di calarsi nel contesto aziendale; la terza parte dettaglia il progetto ISSIMO nei dettagli e la quarta parte, quella sperimentale, mostra l’applicazione degli algoritmi alla linea di assemblaggio in esame.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pandemia da COVID-19 ha cambiato le nostre vite obbligandoci a vivere mesi di lockdown, distanziamento sociale ed uso delle mascherine. Il distanziamento sociale e l'uso delle mascherine, anche dopo la prima fase della pandemia, sono state le contromisure principali in quanto permettevano di limitare i contagi permettendo comunque alla gente di uscire di casa. Tutte queste contromisure hanno creato gravi danni all'economia del paese e alla vita personale dei cittadini. Dalla fase iniziale della pandemia si è capito che per gestirla al meglio era necessario effettuare il numero maggiore di tamponi possibili per monitorare al meglio la diffusione del virus ma ciò non era possibile in quanto non esistevano le tecnologie necessarie per testare milioni di persone al giorno. Da questa necessità sono nati i sistemi di Contact Tracing, sistemi che permettono di monitorare in modo anonimo e protetto i contatti sociali delle persone così da capire se sono entrate in contatto con persone infette dal COVID-19 e solo in quel caso effettuare un tampone in modo tale da verificare se sono stati contagiati o meno. Tutti i sistemi di Contact tracing sviluppati ad oggi hanno mostrato problemi relativi alla protezione dei dati, alla scarsa ed inefficace comunicazione e non hanno ridotto al meglio il numero di tamponi effettuati per rilevare realmente coloro che erano stati contagiati avendo quindi uno scarso utilizzo soprattutto a causa della poca fiducia degli utenti riguardo l'utilizzo dei loro dati ed al fatto che dovevano autodichiararsi positivi. Con questa tesi presenterò una nuova tecnica per effettuare il Contact Tracing che combina l'utilizzo del Group Testing all'utilizzo dell'IoT e delle reti per tracciare i contatti tra gli utenti ed il virus chiamata Asynchronous Contact Tracing. Mostrerò come è stato progettato e sviluppato e mostrerò le performance grazie a degli esperimenti reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questo lavoro di tesi consiste nell’analizzare la domanda che il matematico e logico inglese Alan Turing propose di considerare: “Can machines think?”. Il quesito, esaminato attraverso la formulazione del gioco dell’imitazione e ormai ricordato come Test di Turing, è talmente interessante da essere divenuto uno degli argomenti più discussi nell’ambito delle scienze cognitive, della filosofia della mente e dell’informatica. In particolare è stata fondata una disciplina, chiamata intelligenza artificiale o IA, che intende studiare e comprendere se e come un sistema informatico possa essere capace di simulare una mente umana e un suo tipico comportamento. Questa tesi presenta una disamina sull’intelligenza artificiale e sul Test di Turing. Dell’IA si prenderanno in esame alcune definizioni formali della disciplina, le teorie di intelligenza artificiale debole e forte, e in particolare l’esperimento mentale della Stanza Cinese, il machine learning, il deep learning e le reti neurali, alcuni loro esempi di implementazione in diversi ambiti e infine alcune questioni etiche relative all’IA. Successivamente verranno esaminati la descrizione del gioco dell’imitazione, le più importanti critiche ed obiezioni al test di Turing, una variante del test, chiamata Test di Turing Totale, il premio Loebner, le previsioni fatte dal matematico e alcuni tentativi di superamento del test, tra cui l’implementazione dei chatterbot ELIZA, ALICE ed Eugene Goostman. Saranno infine proposte delle conclusioni in merito al lavoro svolto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra le finalità della logistica vi è la riduzione del Material Handling che ha come ambizione la consegna diretta del materiale dal fornitore alle linee di produzione. Il presente lavoro di tesi ha come obiettivo quello di attaccare determinate perdite messe in luce dal Cost Deployment Logistico, attraverso un progetto mirato, all’interno dello stabilimento produttivo di Whirlpool EMEA S.p.A. a Melano. Le perdite in questione riguardano l’inefficienza del flusso logistico interno relativo alle linee che producono piani cottura gas. In particolare, il Kaizen messo in atto va ad eliminare dal ciclo di lavoro dei repacker, alcune operazioni di riconfezionamento interno, che vengono riassegnate, in funzione della conformazione del packaging primario e secondario delle famiglie di componenti, rispettivamente agli operatori tuggeristi e carrellisti. In questo modo viene da un lato evitato il tocco superfluo di un operatore con conseguente riduzione del tempo di movimentazione totale di alcune famiglie di componenti, dall’altro vi è un maggior bilanciamento della saturazione di tutte le figure coinvolte nel processo di consegna materiale in senso lato. Il progetto ha portato dunque a una ridistribuzione delle attività tra gli operatori logistici coinvolti con conseguente necessità di un relayout delle aree picking gas. Grazie al progetto è stato diminuito il monte ore necessario all’attività di repackaging con corrispondente risparmio economico annuo. Il lavoro si è occupato anche dell’implementazione di un’automazione: due robot AMR. Gli AMR robot, oltre a permettere il raggiungimento degli obiettivi economici, hanno portato ad una migliore configurazione del ciclo dei tuggeristi, che risulta ridotto in termine di percentuale di operazioni a non valore aggiunto (NVAA).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il quark top è una delle particelle fondamentali del Modello Standard, ed è osservato a LHC nelle collisioni a più elevata energia. In particolare, la coppia top-antitop (tt̄) è prodotta tramite interazione forte da eventi gluone-gluone (gg) oppure collisioni di quark e antiquark (qq̄). I diversi meccanismi di produzione portano ad avere coppie con proprietà diverse: un esempio è lo stato di spin di tt̄, che vicino alla soglia di produzione è maggiormente correlato nel caso di un evento gg. Uno studio che voglia misurare l’entità di tali correlazioni risulta quindi essere significativamente facilitato da un metodo di discriminazione delle coppie risultanti sulla base del loro canale di produzione. Il lavoro qui presentato ha quindi lo scopo di ottenere uno strumento per effettuare tale differenziazione, attraverso l’uso di tecniche di analisi multivariata. Tali metodi sono spesso applicati per separare un segnale da un fondo che ostacola l’analisi, in questo caso rispettivamente gli eventi gg e qq̄. Si dice che si ha a che fare con un problema di classificazione. Si è quindi studiata la prestazione di diversi algoritmi di analisi, prendendo in esame le distribuzioni di numerose variabili associate al processo di produzione di coppie tt̄. Si è poi selezionato il migliore in base all’efficienza di riconoscimento degli eventi di segnale e alla reiezione degli eventi di fondo. Per questo elaborato l’algoritmo più performante è il Boosted Decision Trees, che permette di ottenere da un campione con purezza iniziale 0.81 una purezza finale di 0.92, al costo di un’efficienza ridotta a 0.74.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte della tesi analizza il cambiamento della dieta degli italiani nel corso dei decenni, a partire dagli anni del dopoguerra fino al periodo contemporaneo. Il passaggio da un periodo di estrema povertà al boom economico ha permesso ai cittadini di dare sempre più importanza alla qualità del cibo. Con la nascita e lo sviluppo della televisione il popolo ha avuto la possibilità di conoscere le ricette tradizionali di ogni parte dell'Italia, arrivando a costruire una forte identità nazionale legata al mondo della cucina. Le trasmissioni televisive si sono trasformate sia grazie al cambiamento della società e della mentalità degli italiani, sia grazie ai numerosi nuovi canali tematici che sono nati grazie alle reti privati; ad oggi esistono dunque programmi di intrattenimento, pedagogici e show di ogni tipo che mostrano la cucina in tutte le sue sfaccettature. Il cibo e l'alimentazione in televisione sono stati rappresentati anche attraverso gli spot: è stato analizzato come i marchi abbiano inizialmente cercato di rendere attraente un prodotto - anche attraverso l'uso di donne sensuali come volto delle campagne pubblicitarie - fino ad arrivare al voler fidelizzare gli acquirenti veicolando specifici messaggi e valori. Dall'analisi del format Dinner Club è stato dimostrato come nel periodo contemporaneo i programmi abbiano forme e strutture ibride, che possono mescolare il lato pedagogico, riscoprendo il territorio italiano e le sue tradizioni culinarie, la sfida e la competizione tra i concorrenti e la parte legata all'intrattenimento. Nell'ultimo capitolo è stato messo in evidenza come i cuochi, presentatori di queste trasmissioni, stiano diventando sempre più famosi. Sono presenti sia aspetti positivi che negativi riguardo la loro progressiva importanza all'interno della società italiana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Associare nomi propri a volti di persona è un compito importante, fondamentale nella quotidianità di tutti i giorni. Nonostante questa operazione avvenga quasi sempre in maniera automatica, essa coinvolge una rete neurale complessa ed articolata. Diversi studi offrono strategie che possono aiutare in questo compito; in particolare, è stato riportato che rafforzare i nomi con stimoli cross-modali, ossia presentando più input sensoriali esterni contemporaneamente, può costituire un vantaggio per il recupero in memoria dei nomi stessi. Lo scopo di questa tesi è stato quello di svolgere un’analisi di sensibilità tramite un modello neuro-computazionale su MatLab di ispirazione biologica. Nello specifico sono stati considerati due macro-network: uno per i volti, l’altro per i nomi propri; quest’ultimo in particolare a sua volta si compone di tre aree uni-sensoriali, ciascuna delle quali corrisponde ad un modo specifico con cui codificare un nome (traccia audio, lip reading, name tag). Questi network sono stati dunque implementati attraverso una configurazione articolata su due strati: si potrebbe infatti pensare alla fase di addestramento, basata su un algoritmo hebbiano, come un primo layer del processo, seguito così da un secondo layer, dato invece dalla fase di utilizzo. Dalle simulazioni svolte sembra emergere che addestrare in maniera efficiente le connessioni fra le aree uni-sensoriali dei nomi, ricreando così un'integrazione multi-sensoriale, sia un fattore fondamentale per favorire non solo il ricordo di un nome in sé, ma anche processi mnemonici-associativi che coinvolgono anche lo stimolo visivo di un volto. Le evidenze prodotte risultano inoltre qualitativamente coerenti con analoghi esperimenti in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il machine learning negli ultimi anni ha acquisito una crescente popolarità nell’ambito della ricerca scientifica e delle sue applicazioni. Lo scopo di questa tesi è stato quello di studiare il machine learning nei suoi aspetti generali e applicarlo a problemi di computer vision. La tesi ha affrontato le difficoltà del dover spiegare dal punto di vista teorico gli algoritmi alla base delle reti neurali convoluzionali e ha successivamente trattato due problemi concreti di riconoscimento immagini: il dataset MNIST (immagini di cifre scritte a mano) e un dataset che sarà chiamato ”MELANOMA dataset” (immagini di melanomi e nevi sani). Utilizzando le tecniche spiegate nella sezione teorica si sono riusciti ad ottenere risultati soddifacenti per entrambi i dataset ottenendo una precisione del 98% per il MNIST e del 76.8% per il MELANOMA dataset