481 resultados para SWIMBLADDER RETE MIRABILE


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato parte da una scheda di sviluppo commerciale per arrivare a realizzare una rete LoRaWAN comprensiva di End-Node, Gateway e Application Server. In maniera specifica, l'elaborato affronta il problema della progettazione di end-node a micropotenze. Dopo aver studiato e collaudato la piattaforma di sviluppo, è stata affrontata la problematica dell'ottimizzazione energetica a diversi livelli: scelta di componenti con correnti di perdita estremamente ridotte, tecniche di power gating temporizzato, comportamento adattativo del nodo, impostazione dei consumi del nodo mediante i server della rete. L'elaborato presenta infine il layout del PCB progettato, pronto per la fabbricazione, insieme a stime del tempo di vita dell'end-node in funzione della frequenza di trasmissione e della capacità delle batterie utilizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo delle reti mobili è fornire ai dispositivi wireless accesso a una grande varietà di servizi dati, in un’ampia area geografica. Nonostante le reti cellulari odierne, basate sulla tecnologia Massive MIMO, possano raggiungere elevate performance in condizioni favorevoli (centro cella) esse, presentano all’interno dell’area di copertura, zone soggette a data-rate notevolmente ridotti. In questo elaborato, viene brevemente descritta la rete cell-free; una nuova architettura di rete pensata per superare i vecchi limiti delle reti cellulari tradizionali. Successivamente, vengono presentati attraverso simulazioni i due principali vantaggi che queste nuove reti cell-free offrono. Inoltre, viene analizzato uno schema random access in grado di gestire l’accesso multiplo per queste nuove architetture di rete. Questo schema rappresenta un’estensione di un protocollo già presente in letteratura e perfettamente funzionante per reti Massive MIMO, appartenente alla famiglia dei protocolli Coded Slotted ALOHA. Infine, un'analisi delle prestazioni e alcuni possibili scenari sono stati presentati, con lo scopo di valutare l'effetto che algoritmi di tipo SIC possono avere su queste reti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dell’elaborato è quello di valutare una prima applicazione di intelligenza artificiale per svolgere manutenzione predittiva sui giunti installati nella rete di distribuzione, al fine di prevenirne i guasti. L’estensione delle reti in cavo è infatti in costante aumento per supportare lo sviluppo della rete elettrica e, per l’installazione di nuove linee o nella manutenzione di cavi, si fa uso di giunti, spesso soggetti a guasti e di difficile manutenzione. Risulta quindi importante svolgere manutenzione predittiva su questi componenti, al fine di prevenirne i guasti ed ottenere un risparmio in termini di tempo e denaro. A seguito un’attenta analisi della struttura dei giunti, dei loro modi di guasto e dei parametri caratteristici, si è proceduto alla generazione sintetica di un dataset contenente misure sui giunti e, sulla base di specifici criteri applicati a questi valori, l’informazione sulla presenza o sull’assenza di un guasto. Il dataset è stato poi utilizzato per la fase di apprendimento e di test di sei algoritmi di machine learning, selezionati a partire da considerazioni sullo stato dell’arte, valutato tramite una Revisione Sistematica della Letteratura (SLR). I risultati così ottenuti sono stati analizzati tramite specifiche metriche e da questo caso di studio sono emerse le elevate potenzialità delle tecnologie di intelligenza artificiale ai fini della prevenzione dei guasti nelle reti di distribuzione, soprattutto se considerata la semplicità implementativa degli algoritmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I convertitori elettronici di potenza sono da anni largamente diffusi sul mercato, poiché necessari per pilotare motori elettrici a velocità variabile in ambito industriale e a interfacciare alla rete elettrica i generatori da fonti di energia rinnovabili, in particolare eolica e fotovoltaica. In tutti i casi è richiesto che i convertitori siano efficienti, ovvero che l’energia persa durante la conversione sia minima. Considerando che il cuore di un convertitore è costituito da interruttori statici, è fondamentale una stima accurata dell’efficienza di questi ultimi per definire le prestazioni di un convertitore. Il materiale più diffuso per la realizzazione di questi componenti è il silicio (Si), ma esistono oggi altri semiconduttori che permettono prestazioni migliori, quali il carburo di silicio (SiC) e il nitruro di gallio (GaN). A causa del loro elevato costo di produzione rispetto ai componenti tradizionali, è divenuto sempre più importante stimare l’efficienza dei convertitori che montano queste tecnologie innovative, per trovare una giustificazione al loro impiego. In questa tesi, in particolare, l’efficienza di un convertitore con tecnologia SiC è stata prima calcolata analiticamente e poi testata a banco. Infine, è proposta un’architettura per un inverter trifase che possa essere impiegata per un’applicazione fotovoltaica. Questo lavoro è parte delle attività assegnate a Raw Power S.r.l. nell’ambito del progetto Europeo YesVGaN, il cui scopo ultimo entro i prossimi anni, è la realizzazione di componenti GaN commercialmente appetibili, che necessiteranno di essere testati e confrontati con i dispositivi al silicio e al carburo di silicio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attuale sistema produttivo prevede un processo lineare: si prelevano materie prime, si utilizzano per realizzare il proprio prodotto e si generano scarti. Questo ha inevitabilmente portato allo sfruttamento eccessivo delle risorse del pianeta e alle problematiche relative allo smaltimento di quantità sproporzionate di rifiuti. Il sistema è evidentemente in crisi e questo non è affatto d’aiuto all’economia, tantomeno all’emergenza climatica alla quale semmai contribuisce. La simbiosi industriale si presenta come una soluzione in grado di ridurre le emissioni inquinanti e ottenere un’economia redditizia e sostenibile. La sua implementazione richiede che ci siano le giuste condizioni per riuscire a creare una vera e propria rete di aziende in connessione tra loro. L’elaborato prevede nella parte iniziale un excursus sulle pratiche di simbiosi industriale e i loro esempi, per poi concentrarsi sull’area di interesse, analizzando il tessuto imprenditoriale e sezionandolo tramite criteri di scelta, al fine di evidenziare possibili situazioni favorevoli a questa metodologia. Il lavoro è stato realizzato durante l’attività di tirocinio presso Enea, nell’ambito del progetto Marlic per la regione Marche. Lo studio si propone tuttavia di ricercare soluzioni replicabili in luoghi e contesti anche diversi da quello preso in esame; l’obiettivo è dimostrare ulteriormente l’efficacia e l’efficienza della metodologia offrendo alternative verosimili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi, la tecnologia è entrata insostituibilmente a far parte della nostra vita quotidiana; le enormi opportunità offerte dalle apparecchiature informatiche possono a lungo termine trascinare un utente in uno stato di stress e distrazione causato dall'abuso dei mezzi e dalla sovrabbondanza comunicativa. Fare un utilizzo sano e consapevole dei propri dispositivi diventa fondamentale per il nostro benessere, ma richiede consapevolezza e abilità; mentre continuare ad ignorare il problema potrebbe trasformare le stesse opportunità offerte in malessere fisiologico, psichico e cognitivo. A tal proposito, è stato delineato il termine “Digital Wellbeing”, per indicare la condizione di chi sa sfruttare al meglio le crescenti opportunità messe a disposizione dagli strumenti digitali, sapendo al contempo controllare e governare gli effetti delle loro dinamiche indesiderate. La tesi approfondisce il rapporto che abbiamo ogni giorno con la tecnologia, quanto l'utilizzo degli strumenti tecnologici è fruttuoso o dannoso al nostro benessere personale psicofisico ed alla qualità della nostra vita. Il digital wellbeing, o benessere digitale, è una condizione soggettiva e mutevole, derivante da condizioni sociali, dallo stato delle tecnologie e dalle attività di ogni persona. Capiremo perché questo tema è importante nella società odierna, quali strumenti possediamo per migliorare il nostro equilibrio con la rete e come l'educazione all'uso risulta fondamentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il crescente aumento del numero di dispositivi connessi in rete e delle applicazioni che vengono sviluppate su di essa ha trasformato completamente lo standard delle applicazioni che una volta erano single-user, facendo quindi arrivare lo standard ad un modello multi-utente, dove si ha un ambiente collaborativo e condiviso in cui le azioni di un determinato utente vanno ad influire anche sugli altri. Altra necessità al giorno d'oggi è inoltre che queste applicazioni multi-utente siano anche real-time, ovvero che si aggiornino in tempo reale e che di conseguenza l'azione di un singolo utente debba essere trasmessa e notificata a tutti gli altri in modo che possano gestirla di conseguenza. Lo sviluppo di tali applicazioni risulta quindi particolarmente complesso, tuttavia esistono anche soluzioni architetturali e framework che risultano essere dedicati all'implementazione di tale tipo di applicazioni, il quale obiettivo è quindi quello di semplificarne e velocizzarne lo sviluppo, tramite l'utilizzo di pattern o architetture mirate all'implementazione di un tipo specifico di tali applicazioni. Un esempio di tali soluzioni è Croquet, che permette la creazione di applicazioni real-time multi-utente, senza la necessità di scrivere alcun codice per la parte server o per la gestione delle comunicazioni tra i peer, ma solamente sviluppando il modello del client, ovvero la parte in esecuzione sulla macchina dell'utente. Questa tesi andrà quindi ad effettuare uno studio sul funzionamento e sull'architettura di Croquet proseguendo quindi con lo sviluppo di un middleware che permetta la creazione di applicazioni real-time multi-utente indipendenti dal linguaggio di sviluppo, le quali si potranno quindi appoggiare sull'architettura di Croquet per funzionare e comunicare, avendo quindi a disposizione tutte le garanzie che vengono offerte da Croquet e dalla sua architettura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'avanzamento dell'e-commerce e l'aumento della densità abitativa nel centro città sono elementi che incentivano l'incremento della richiesta merci all'interno dei centri urbani. L'attenzione all'impatto ambientale derivante da queste attività operative è un punto focale oggetto di sempre maggiore interesse. Attraverso il seguente studio, l'obiettivo è definire attuali e potenziali soluzioni nell'ambito della logistica urbana, con particolare interesse alle consegne dell'ultimo miglio. Una soluzione proposta riguarda la possibilità di sfruttare la capacità disponibile nei flussi generati dalla folla per movimentare merce, pratica nota sotto il nome di Crowd-shipping. L'idea consiste nella saturazione di mezzi già presenti nella rete urbana al fine di ridurre il numero di veicoli commerciali e minimizzare le esternalità negative annesse. A supporto di questa iniziativa, nell'analisi verranno considerati veicoli autonomi elettrici a guida autonoma. La tesi è incentrata sulla definizione di un modello di ottimizzazione matematica, che mira a designare un network logistico-distributivo efficiente per le consegne dell'ultimo miglio e a minimizzare le distanze degli attori coinvolti. Il problema proposto rappresenta una variante del Vehicle Routing Problem con time windows e multi depots. Il problema è NP-hard, quindi computazionalmente complesso per cui sarà necessario, in fase di analisi, definire un approccio euristico che permetterà di ottenere una soluzione sub-ottima in un tempo di calcolo ragionevole per istanze maggiori. L'analisi è stata sviluppata nell'ambiente di sviluppo Eclipse, attraverso il risolutore Cplex, in linguaggio Java. Per poterne comprendere la validità, è prevista un'ultima fase in cui gli output del modello ottimo e dell'euristica vengono confrontati tra loro su parametri caratteristici. Bisogna tuttavia considerare che l' utilizzo di sistemi cyber-fisici a supporto della logistica non può prescindere da un costante sguardo verso il progresso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.