983 resultados para scale-free rete reti invarianza scala simulazione repast
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Diversi elementi possono influenzare il comportamento dei conducenti mentre svolgono attività di guida. Dalle distrazioni visive a quelle cognitive, le emozioni (che potrebbero risultare da dati biometrici, come temperatura, battito cardiaco, pressione, ecc.) e le condizioni di altri conducenti, che possono svolgere un ruolo significativo, fungendo da fattore che può aumentare il tempo di risposta dei guidatori. Mantenere sotto controllo questi parametri potrebbe essere fondamentale per evitare situazioni pericolose, per decidere ed eseguire azioni che potrebbero influenzare il verificarsi di incidenti stradali. Questo volume analizza l'indice "Fitness-to-Drive" e mira a valutare come gli effetti dell'eccitazione possono influenzare lo stato dei conducenti. La tesi presenta alcune valutazioni sperimentali condotte su un simulatore di guida, discutendo i risultati ottenuti.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Il tema centrale di questa tesi è il Machine Learning e la sua applicabilità nella ricostruzione di immagini biomediche, nello specifico di immagini mammarie. Il metodo attualmente più diffuso per la rilevazione del tumore al seno è la Mammografia 2D digitale, ma l’interesse mostrato ultimamente verso la Tomosintesi ha dimostrato una migliore capacità di diagnosi tumorale, anche ai primi stadi. Sebbene le due tecniche combinate siano in grado di rilevare anche la minima lesione, questo comporta una sovraesposizione alle radiazioni. Lo scopo finale, perciò, è quello di fornire un valido strumento di supporto per la caratterizzazione automatica di masse e opacità in immagini di tomosintesi, così da sottoporre il paziente ad un singolo esame radiografico. L'obiettivo è stato dunque ricostruire, tramite reti neurali Convoluzionali, immagini sintetiche di Tomosintesi di qualità superiore e il più possibile vicine a quelle di mammografia 2D. Sono state presentate nel dettaglio le due tecniche di imaging, le problematiche ad esse legate ed un approfondito confronto dosimetrico. Dopo una trattazione teorica dei principi delle CNN, sono state riportate le caratteristiche delle architetture di rete realizzate nella parte progettuale dell’elaborato. Sono stati valutati i comportamenti dei differenti modelli neurali per uno stesso Dataset di immagini di Tomosintesi, individuandone il migliore in termini di prestazioni finali nelle immagini di Test. Dagli studi effettuati è stata provata la possibilità, in un futuro sempre più prossimo, di applicare la Tomosintesi, con l’ausilio delle reti Convoluzionali, come tecnica unica di screening e di rilevazione del tumore al seno.
Resumo:
Oggigiorno, grazie al progresso tecnologico nel settore informatico e alla vasta diffusione dei dispositivi mobili all'interno del mercato mondiale, numerose sono le persone che utilizzando questi prodotti all'interno della vita di tutti giorni e.g. smartphone, smartwatch, smartband, auricolari, tablet, ecc. Per poter utilizzare questi dispositivi, spesso è necessario l'impiego di applicazioni apposite installate sui cellulari di ultima generazione e collegate ai dispositivi che permettono il controllo, la gestione e la raccolta dei dati relativo all'oggetto in questione. Oltre a facilitare le attività giornaliere, questi programmi, potrebbero causare dei problemi agli utenti a causa della ridotta o mancata sicurezza, poiché le informazioni personali come credenziali d'accesso, dati salutistici oppure quelli inerenti ai metodi di pagamento possono essere soggetti ad attacchi informatici. Questa tesi consiste nell'elaborazione di un software composto da un'applicazione Android, uno script Batch e dall'uso di programmi di terze parti, per poter effettuare la simulazione di un attacco sniffing in modo da poter intercettare i dati trasmessi, quali credenziali di accesso, OTP, tramite la tecnologia Bluetooth Low Energy.
Resumo:
In this Thesis, a life cycle analysis (LCA) of a biofuel cell designed by a team from the University of Bologna was done. The purpose of this study is to investigate the possible environmental impacts of the production and use of the cell and a possible optimization for an industrial scale-up. To do so, a first part of the paper was devoted to studying the present literature on biomass, and fuel cell treatments and then LCA studies on them. The experimental part presents the work done to create the Life Cycle Inventory and Life Cycle Impact Assessment. Several alternative scenarios were created to study process optimization. Reagents and energy supply were changed. To examine whether this technology can be competitive, a comparison was made with some biofuel cell use scenarios with traditional biomass treatment technologies. The result of this study is that this technology is promising from an environmental point of view in case it is possible to recover nutrients in output, without excessive energy consumption, and to minimize the use of energy used to prepare the solution.
Resumo:
Dopamine is a neurotransmitter which has a role in several psychiatric and neurological disorders. In-vivo detection of its concentration at the microscopic scale would benefit the study of these conditions and help in the development of therapies. The ideal sensor would be biocompatible, able to probe concentrations in microscopic volumes and sensitive to the small physiological concentrations of this molecule (10 nM - 1 μM). The ease of oxidation of dopamine makes it possible to detect it by electrochemical methods. An additional requirement in this kind of experiments when run in water, though, is to have a large potential window inside which no redox reactions with water take place. A promising class of materials which are being explored is the one of pyrolyzed photoresists. Photoresists can be lithographically patterned with micrometric resolution and after pyrolysis leave a glassy carbon material which is conductive, biocompatible and has a large electrochemical water window. In this work I developed a fabrication procedure for microelectrode arrays with three dimensional electrodes, making the whole device using just a negative photoresist called SU8. Making 3D electrodes could be a way to enhance the sensitivity of the electrodes without occupying a bigger footprint on the device. I characterized the electrical, morphological, and electrochemical properties of these electrodes, in particular their sensitivity to dopamine. I also fabricated and tested a two dimensional device for comparison. The three dimensional devices fabricated showed inferior properties to their two dimensional counter parts. I found a possible explanation and suggested some ways in which the fabrication could be improved.
Resumo:
Background: l’intervento di artroprotesi inversa di spalla sta assumendo sempre più importanza all’interno dell’approccio chirurgico della spalla. Il Concetto Bobath viene somministrato solitamente a pazienti con problematiche neurologiche centrali (es. ictus), ma si è visto molto efficace nel ristabilire un’importante stabilità scapolare a livello dell’arto superiore. Obiettivo: valutare il dolore e la funzionalità di spalla in persone con protesi inversa di spalla in seguito ad un percorso riabilitativo implementato da tecniche appartenenti al Concetto Bobath. Metodi: sono stati selezionati tre soggetti (3 F) di et. media di 74 anni sottoposti ad intervento di artroprotesi inversa di spalla e successivamente a trattamento riabilitativo con tecniche appartenenti al Concetto Bobath. I soggetti partecipanti sono stati valutati durante e alla fine del percorso riabilitativo attraverso l’utilizzo della scala NRS per il dolore, mentre per la funzionalità di spalla la UCLA Shoulder Scale), la Constant-Murley Scale e la DASH. I limiti presenti in questo studio sono attribuibili sia al fatto che nelle banche dati sono assenti studi che riguardano lo stesso argomento, sia al fatto che il numero di pazienti entrati a far parte dello studio è molto limitato sia per le complicanze durante il trattamento o l’interruzione del trattamento in alcuni pazienti. Risultati: al termine della sperimentazione, tutti i soggetti hanno presentato un miglioramento delle misure di outcome. Un importante miglioramento si è notato nella stabilità scapolare, nei compensi muscolari e nel dolore. I risultati sono stati poi confrontati con gli outcome di pazienti trattati secondo protocolli standardizzati, appartenenti a studi presenti all’interno delle banche dati. Conclusioni: l’utilizzo di tecniche appartenenti al Concetto Bobath sembra essere efficace in pazienti sottoposti ad artroprotesi inversa di spalla. Tuttavia, sono necessari ulteriori studi per verificarne gli effettivi effetti.
Resumo:
Background Recentemente la letteratura scientifica ha dimostrato come un corretto controllo posturale faciliti i movimenti dell’arto superiore. Ci sono evidenze secondo cui, applicando al paziente dei contenimenti sul tronco, si ha un miglioramento della funzionalità dell’arto superiore. Obiettivi L’obiettivo principale della tesi era quello di verificare come il sostegno del tronco con l’utilizzo di una stabile struttura assiale, attraverso un supporto esterno definito “trunk constraint”, incrementi il controllo posturale, per facilitare i movimenti frazionati degli arti superiori in persone con esiti di patologie neurologiche. Materiali e metodi Il caso clinico riguarda un uomo di 60 anni con esiti di emiparesi sinistra da ictus ischemico destro. E’ stato eseguito un protocollo di dieci sessioni di trattamento, di un’ora ciascuna, in cui veniva applicata la facilitazione attraverso trunk constraint in diversi setting riabilitativi. I dati sono stati raccolti tramite le scale: Trunk Control Test, Trunk Impairment Scale e Fugl-Meyer Assessment. Inoltre, è stata eseguita l’analisi osservazionale, attraverso videoripresa, di un gesto funzionale dell’arto superiore. Risultati I dati rilevati dimostrano degli effetti positivi rispetto alle ipotesi di partenza. Infatti sono stati riscontrati miglioramenti negli item delle scale somministrate e nella valutazione qualitativa dell’arto superiore. In particolare, si è evidenziato un miglioramento nel controllo del tronco nella scala Trunk Control Test e nella Trunk Impairment Scale e della funzione dell’arto superiore alla scala Fugl-Meyer Assessment. L’analisi osservazionale dei video dimostra un miglioramento del timing di attivazione durante la fase di reaching. Conclusioni I risultati ottenuti supportano il fatto che un incremento dell’attività antigravitaria del tronco, anche attraverso supporti esterni come la trunk constraint, possono facilitare un miglioramento funzionale dell’arto superiore.
Resumo:
I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.
Resumo:
La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.
Resumo:
Durante gli ultimi anni sta avendo sempre più rilevanza il problema del cambiamento climatico, dovuto principalmente all’emissione in atmosfera di gas serra. Una delle soluzioni da adottare è una transizione energetica verso fonti di energia rinnovabili e una progressiva elettrificazione di tutte le tecnologie che utilizzano ancora combustibili fossili. L’obiettivo di questa tesi di Laurea è analizzare e implementare un semplice modello in MATLAB/Simulink di una turbina eolica, conoscendo solo i dati di targa del generatore, la curva di potenza della turbina e avendo a disposizione dei dati reali di velocità del vento, potenza prodotta e velocità di rotore. Il progetto quindi consiste in un lavoro di reverse engineering in cui, partendo dai componenti reali, si cerca di ricavare, in maniera empirica e sperimentale, i parametri che ne caratterizzano il modello matematico. Successivamente è stato implementato un modello su Simulink, partendo da un modello già esistente, in cui si è simulato il comportamento della macchina, ottenendo una stima della potenza prodotta.
Resumo:
I metodi utilizzati per la stima delle portate fluviali in bacini idrografici non strumentati fanno uso di tecniche di regionalizzazione con l’obiettivo di stimare i parametri, attraverso dei bacini di riferimento, da implementare nei modelli idrologici. Risulta, quindi, di fondamentale importanza la selezione dei bacini idrografici donatori. La scelta dei bacini di riferimento avviene tramite delle misure di somiglianza che tengono conto di caratteristiche del territorio. Il limite principale di tali approcci è la mancata considerazione della struttura della rete idrografica e del loro eventuale annidamento. Si definiscono bacini idrografici annidati due o più bacini i cui le stazioni idrometriche sono posizionate lungo la stessa ascissa fluviale oppure presentano un'area comune drenata da entrambi i bacini. Skøien et al. (2006) afferma che i bacini a valle e a monte del bacino preso in esame dovrebbero essere trattati differentemente. Il presente lavoro intende contribuire a superare detto limite. È stata stabilita, un’equazione empirica a due parametri che attraverso la distanza interbacino d e il grado di annidamento NI, definisce la differenza di portata idrica ∆Q in una coppia di bacini annidati. I valori dei parametri α e λ sono stati definiti mediante calibrazione con set di dati relativi a portate massime annuali di medie giornaliere e massimi annuali istantanei. Sono stati analizzati i corsi d’acqua in Italia, Austria e Polonia mentre a scala di bacino il Fiume Po, il Fiume Danubio, il Fiume Reno e il Fiume Oder. Attraverso la massimizzazione di una funzione obiettivo di tipo quadratico sono state verificate le prestazioni del metodo proposto. La differenza di portate ∆Q ricavata è possibile definirla come una misura di somiglianza la quale potrebbe, attraverso caratteristiche geospaziali facilmente reperibili, definire i bacini di riferimento da utilizzare nei metodi di regionalizzazione dei deflussi fluviali.
Resumo:
La tesi si incentra nello studio e utilizzo del linguaggio Scala per aspetti di ingestion, processing e plotting di dati, prestando enfasi su time series. Questa è costituita da una prima parte introduttiva sui principali argomenti, per poi concentrarsi sull’analisi dei requisiti, il modello del dominio, il design architetturale e la sua implementazione. Termina infine con qualche nota conclusiva riguardante possibili sviluppi futuri. La parte progettuale consiste nello sviluppo di un’applicazione che supporti le librerie scelte e che favorisca il processo in modo agevole. La validazione del progetto software realizzato viene fatta tramite una sequenza di varie configurazioni a dimostrarne la differenza tra la scelta di determinate opzioni: ciascuna viene accompagnata da una o pi`u immagini che ne dimostrano i risultati ottenuti a seguito dell’uso del programma.
Resumo:
Si pensa che i campi magnetici siano presenti in qualsiasi oggetto celeste, e nel mezzo tra di essi. Non siamo capaci di misurare questi campi in modo diretto, ma possiamo derivare delle misure da metodi indiretti, osservando e analizzando gli effetti che essi hanno sulla radiazione. Questi possono riguardare sia come la radiazione si propaga sia come essa viene generata. I campi magnetici esercitano una forza sul plasma cosmico, e possono influenzare in maniera più o meno marcata il moto di questo. Essi non possono competere con le interazioni gravitazionali in gioco nelle galassie, o in scale ancora più grandi, ma giocano un ruolo fondamentale nei moti del gas sulle piccole scale. In questo scritto analizzeremo per prima cosa i principali metodi utili per la rilevazione dei campi magnetici in astrofisica senza entrare eccessivamente nel dettaglio, ma riportando gli aspetti essenziali sia dal punto di vista descrittivo dell’effetto fisico sul quale si basano, sia dal punto di vista delle formule. Dopodiché si passera ad analizzare i principali scenari ipotizzati per l’origine dei campi magnetici di una galassia. Si accennerà anche all’amplificazione di piccoli campi originari per raggiungere i valori osservati oggigiorno. Al fine di trattare questo particolare aspetto, si spenderà un capitolo per parlare del congelamento del campo nella materia. Infine nell’ultimo capitolo si affronterà il campo magnetico della Via Lattea. Ci si concentrerà in tre regioni diverse della galassia: l’halo, il disco e la zona centrale. Per questi si riporteranno i risultati ottenuti utilizzando i vari metodi precedentemente descritti, al fine di ottenere un’idea di quale sia la struttura a larga scala del campo magnetico della galassia.