646 resultados para intelligenza artificiale orario sistemi basati sulla conoscenza
Resumo:
Gli Insider Threat sono una problematica complessa e rappresentano una delle problematiche più costose per le organizzazioni: questi ultimi possono, potenzialmente, realizzare grandi guadagni dalle informazioni sottratte danneggiando i clienti e provocando danni irreparabili all’organizzazione. Screening effettuati prima dell’assunzione e la costruzione di un relazione di fiducia basata sulla collaborazione rimangono fondamentali ma, spesso, non sono sufficienti ed è bene integrare il processo di difesa da insider threat all’interno delle business operation. Date queste precondizioni, l’obiettivo di questa tesi è stato quello di cercare un approccio sistematico per affrontare il problema dell’Insider Threat e di fornire nuovi strumenti per la sua detection altamente specializzati nel campo della cyber-security. Dato il campo applicativo, risulta fondamentale rendere questo processo totalmente trasparente al potenziale insider threat. Le più moderne tecniche di hiding, prese dai moderni malware, sono state implementate utilizzando eBPF rendendo possibile unire una quasi totale invisibilità unita alla stabilità garantita da questa tecnologia.
Resumo:
La dinamica dei due corpi è un problema di meccanica celeste di grande rilevanza per l’astrofisica, permette di studiare l’interazione tra due masse puntiformi che si muovono sotto una mutua attrazione gravitazionale, descritta dalle leggi universali della gravi- tazione di Newton. Inoltre è l’unico problema riguardante la dinamica gravitazionale per il quale si ha una completa e generale soluzione analitica. Nel capitolo 1 vengono introdotti gli strumenti matematici e il formalismo alla base del problema dei due corpi, utile per lo studio dell’interazione gravitazionale tra due masse puntiformi; arrivando a ricavare anche le leggi di Keplero. Risulta immediato immaginare che i sistemi osservati nell’universo non siano strettamente formati da soli due corpi, bensì potrebbe capitare che il numero n di corpi sia tale che n > 2. Successivamente, nel capitolo 2, viene trattato un caso più generale del problema dei due corpi, il problema dei tre corpi. Come si può intuire in questo caso si estenderà l’analisi all’interazione gravitazionale di 3 corpi, trattando inizialmente il problema nel quale uno dei tre corpi ha massa trascurabile rispetto agli altri due, detto problema dei tre corpi circolare ristretto. A seguire si tratta il caso generale del problema dei tre corpi, in cui le masse sono tra loro confrontabili. Al contrario del problema dei due corpi quello dei tre corpi non ha una soluzione analitica, viene risolto numericamente. In conclusione, nel capitolo 3, si trattano le interazioni di stelle o altri corpi in sistemi binari o a tre corpi, con alcune applicazioni astrofisiche. Vengono messi in luce esempi riguardanti il problema dei due corpi in ammassi globulari e dei tre corpi nel sistema solare, trattando in questo caso l’effetto dell’interazione a più corpi sulla precessione del perielio di Mercurio.
Resumo:
Questo elaborato tratta lo studio e l'implementazione della modulazione Orthogonal Time Frequency Space (OTFS) in sistemi di tipo Joint Sensing and Communication (JSC), ossia sistemi in cui le funzionalità di comunicazione e "sensing" condividono lo stesso hardware e la stessa banda di frequenze. La modulazione OTFS è una recente tecnica di modulazione bidimensionale, progettata nel dominio delay-Doppler, che sta riscuotendo particolare interesse nel panorama delle telecomunicazioni in quanto portatrice di alcuni importanti vantaggi nei sistemi delle reti cellulari. Rispetto alle moderne modulazioni multi-portante, come l'OFDM, l'OTFS si dimostra essere in grado di offrire prestazioni migliori e più robuste in condizioni di connessioni ad alta velocità (High Mobility), con una maggiore efficienza spettrale, in quanto non prevede l'utilizzo di un prefisso ciclico per la gestione del problema dell'ISI. Un altro punto di forza importante della modulazione OTFS è quello di risultare particolarmente adatta e compatibile con le applicazioni di JSC, soprattutto grazie all'estrema robustezza a grandi spostamenti Doppler, e la possibilità di fare "sensing" raggiungendo distanze decisamente maggiori rispetto all'OFDM, grazie all'assenza del prefisso ciclico. Tutto questo però viene al costo di un notevole incremento del sistema, con tempi di esecuzione molto elevati. Dopo aver presentato il sistema OTFS in generale e in ambito JSC, in un particolare scenario, lo si è implementando in MATLAB sviluppando due versioni: una standard e una a complessità ridotta, in grado di raggiungere risoluzioni molto elevate in tempi di calcolo contenuti. Infine questo sistema, in grado di stimare i parametri radar di distanza e velocità radiale relativa, associati ad un certo target, è stato simulato e i risultati relativi alle performance sulla stima dei parametri, in termini di RMSE e CRLB, sono stati riportati e posti a confronto con quelli ottenuti nel caso OFDM, a parità di scenario.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
Siamo sempre stati abituati fin dal principio ad interagire con l’ambiente che ci circonda, utilizzando gli oggetti fisici presenti attorno a noi per soddisfare le nostre esigenze, ma se esistesse di più di questo? Se fosse possibile avere attorno a noi oggetti che non sono propriamente corpi fisici, ma che hanno un comportamento coerente con l’ambiente circostante e non venisse percepita la differenza tra essi e un vero e proprio oggetto? Ci si sta riferendo a quella che oggi viene chiamata Mixed Reality, una realtà mista resa visibile tramite appositi dispositivi, in cui è possibile interagire contemporaneamente con oggetti fisici e oggetti digitali che vengono chiamati ologrammi. Un aspetto fondamentale che riguarda questa tipologia di sistemi è sicuramente la collaborazione. In questa tesi viene esaminato il panorama delle tecnologie allo stato dell'arte che permettono di vivere esperienze di Collaborative Mixed Reality, ma soprattutto ci si concentra sulla progettazione di una vera e propria architettura in rete locale che consenta la realizzazione di un sistema condiviso. Successivamente all'applicazione di varie strategie vengono valutati i risultati ottenuti da rigorose misurazioni, per determinare scientificamente le prestazioni dell'architettura progettata e poter trarre delle conclusioni, considerando analogie e differenze rispetto ad altre possibili soluzioni.
Resumo:
Il crescente aumento del numero di dispositivi connessi in rete e delle applicazioni che vengono sviluppate su di essa ha trasformato completamente lo standard delle applicazioni che una volta erano single-user, facendo quindi arrivare lo standard ad un modello multi-utente, dove si ha un ambiente collaborativo e condiviso in cui le azioni di un determinato utente vanno ad influire anche sugli altri. Altra necessità al giorno d'oggi è inoltre che queste applicazioni multi-utente siano anche real-time, ovvero che si aggiornino in tempo reale e che di conseguenza l'azione di un singolo utente debba essere trasmessa e notificata a tutti gli altri in modo che possano gestirla di conseguenza. Lo sviluppo di tali applicazioni risulta quindi particolarmente complesso, tuttavia esistono anche soluzioni architetturali e framework che risultano essere dedicati all'implementazione di tale tipo di applicazioni, il quale obiettivo è quindi quello di semplificarne e velocizzarne lo sviluppo, tramite l'utilizzo di pattern o architetture mirate all'implementazione di un tipo specifico di tali applicazioni. Un esempio di tali soluzioni è Croquet, che permette la creazione di applicazioni real-time multi-utente, senza la necessità di scrivere alcun codice per la parte server o per la gestione delle comunicazioni tra i peer, ma solamente sviluppando il modello del client, ovvero la parte in esecuzione sulla macchina dell'utente. Questa tesi andrà quindi ad effettuare uno studio sul funzionamento e sull'architettura di Croquet proseguendo quindi con lo sviluppo di un middleware che permetta la creazione di applicazioni real-time multi-utente indipendenti dal linguaggio di sviluppo, le quali si potranno quindi appoggiare sull'architettura di Croquet per funzionare e comunicare, avendo quindi a disposizione tutte le garanzie che vengono offerte da Croquet e dalla sua architettura.
Resumo:
Negli ultimi anni l’evoluzione tecnologica ha avuto un incremento esponenziale; ogni anno, numerose innovazioni, hanno portato notevoli cambiamenti sulla vita dei consumatori e sul modo in cui essi interagiscono. Al giorno d’oggi, la tecnologia ha raggiunto livelli tali da renderne necessario l’utilizzo per poter soddisfare vari tipi di bisogni. In questa situazione, lo sviluppo di Internet ha consentito di poter entrare in una nuova era, quella dell’Internet of Things (IoT). Questo nuovo modello sarebbe in grado di portare grossi benefici nella vita di tutte le persone, partendo dalle grandi aziende, fino ad arrivare ai singoli consumatori. L’idea di questo progetto di tesi è di posizionare un dispositivo, in grado di poter rilevare temperatura ed umidità dell’ambiente, nei locali universitari nei quali sono immagazzinati i libri, in modo tale da poter monitorare l’andamento termico degli spazi ed eventualmente effettuare delle operazioni di ripristino della temperatura e dell’umidità per evitare il danneggiamento e il deterioramento dei materiali. In questo documento di tesi andremo ad approfondire l’implementazione del dispositivo IoT in grado di rilevare i dati dell’ambiente. Nello specifico analizzeremo l’ambito applicativo di questo dispositivo, l’implementazione del sistema su una scheda Raspberry Pi 4, sfruttando anche un componente aggiuntivo contenente in sensori necessari al funzionamento del sistema, e vedremo nello specifico anche l’implementazione della pagina Web creata per la visualizzazione dei dati. Negli ultimi anni abbiamo vissuto una grande crisi a livello sanitario e oggi stiamo passando un periodo di difficoltà economica dovuta all’aumento del costo di alcune materie prime quali elettricità e gas. I futuri sviluppi su questo progetto potrebbero portare a risolvere in piccolo alcuni di questi problemi.
Resumo:
La tesi tratta funzionamento, ottimizzazione e applicazioni delle celle a combustibile PEM (PEM Fuel cells) che sono dispositivi capaci di convertire reversibilmente l’energia chimica contenuta nel combustibile in energia elettrica, energia termica e prodotti di reazione. Vengono analizzati gli effetti di temperatura, pressione e umidità sulla cinetica, sulle prestazioni, sull’OCV, sulla conduttività della membrana e sul trasferimento di massa. In generale, per utilizzare una cella a combustibile PEM, ogni componente, materiale e l'assemblaggio delle celle dovrebbe essere realizzabile e ottimizzato per ottenere alte prestazioni. Vengono, quindi, trattate le tecniche di test e diagnosi che rappresentano il modo più popolare e affidabile per convalidare i progetti di questi componenti e della cella combustibile stessa. Inoltre, si affronta il discorso sull’idrogeno definito come vettore di energia che ha assunto un ruolo di primo piano per un mercato a basse emissioni; infatti ha un grande potenziale come combustibile alternativo e assume un ruolo centrale nello scenario energetico del futuro. Infine, si parla anche di applicazioni pratiche ed esistenti riguardanti le celle a combustibile in veicoli, come le proposte di Nuvera ed EH Group.
La produzione di valore tra passato e presente: peculiarità e implicazioni del progresso tecnologico
Resumo:
L'obiettivo di questa tesi è quello di analizzare la struttura della società odierna, alla luce delle influenze e modifiche apportate dall’avvento dell'informatica e mostrare come, in generale, il progresso tecnologico abbia profondamente cambiato il nostro modo di vivere. L'introduzione dei computer, l'avvento dell'era digitale e di internet hanno segnato un profondo cambiamento nella storia moderna. In questa tesi andremo prima ad analizzare il capitalismo cognitivo, che vede, al centro della produzione di valore, non più il tempo, ma la conoscenza. Verranno indagati ed esposti i vari aspetti e gli elementi fondamentali della nuova dimensione immateriale, che si è venuta a creare con l'avvento del mondo digitale. Successivamente, viene analizzata la nuova struttura delle imprese, come esse si sono evolute e come si dovrebbero evolvere, per ottimizzare le proprie risorse e adattarsi al nuovo sistema economico sociale. Particolare attenzione verrà posta al nuovo ruolo dei manager e alla produzione sociale. Nel terzo capitolo, vengono analizzati i cambiamenti che sono avvenuti negli ultimi anni all'interno della società; illustreremo il nuovo modo di lavorare, che prevede l'uomo affiancato costantemente dalla tecnologia, e l’apporto dell’intelligenza artificiale al cambiamento della società nei suoi diversi aspetti. Saranno esposte le nuove problematiche emergenti, sia in abito giuridico che etico, conseguenti alla creazione di scenari economico-sociali di cui, prima della rivoluzione tecnologica, non si immaginava nemmeno l'esistenza. Per concludere, vengono presentate le sfide che la politica deve e dovrà affrontare per controllare le nuove dinamiche economiche e le situazioni di monopolio globale che si sono create. Verranno analizzate problematiche e possibili soluzioni, nonché le implicazioni che il progresso tecnologico ha avuto sulla circolazione delle informazioni e di conseguenza sulla percezione della realtà da parte del consumatore.
Resumo:
La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.
Resumo:
Il lavoro svolto in questa tesi era finalizzato allo studio di 14 ceppi di Companilactobacillus alimentarius isolati da salami spagnoli con un duplice obiettivo: da una parte aumentare la conoscenza relativa a questa specie, le cui informazioni in letteratura sono ancora scarse, dall’altra valutarne i caratteri di sicurezza e le performance tecnologiche per selezionare ceppi da utilizzare eventualmente come colture starter e/o bioprotettive in salumi fermentati o altri prodotti alimentari. I ceppi sono stati prima testati per la loro capacità di produrre ammine biogene, con circa la metà dei ceppi in grado di produrre tiramina, mentre solo 4 accumulavano istamina e due putrescina. Dai dati relativi all’antibiotico resistenza è emerso che la metà dei ceppi erano sensibili agli 8 antibiotici testati. È stata valutata poi la capacità dei ceppi di crescere a diverse temperature (10, 20 e 30°C) e a diverse concentrazioni di NaCl (0, 2,5, 5%). I risultati hanno mostrato un andamento variabile: un solo ceppo non era in grado di crescere a 10°C, mentre a 30°C i ceppi si dividevano in due gruppi, ed i ceppi caratterizzati da maggiori velocità di sviluppo a questa temperatura erano anche quelli dotati delle migliori performance a 20 e 10°C. Mentre per la capacità di crescere a diverse concentrazioni di sale, la variabilità era più evidente alla più alta concentrazione di NaCl (5%). Infine, è stata valutata la capacità di produrre molecole che potessero avere un impatto sul profilo sensoriale del prodotto, tra cui i composti derivanti dall’acido piruvico (acetoino, diacetile, 2-butanone), acido acetico, etanolo, benzeneacetaldeide e benzaldeide, ed anche in questo caso i ceppi hanno mostrato attitudini diverse all’accumulo di questi metaboliti. Sulla base dei dati ottenuti in questo lavoro sperimentale, 2 ceppi tra i 14 testati sono stati scelti per future sperimentazioni, dapprima in vitro e poi in sistemi reali, per valutare il loro potenziale come nuove colture starter.
Resumo:
Il neuroblastoma è un tumore solido pediatrico che si sviluppa nel sistema nervoso e risulta una significativa causa di morte infantile. Per avanzare nella conoscenza della sua patogenesi, l’ingegneria dei tessuti biologici, e più nello specifico la microfabbricazione dei biomateriali, ha favorito lo sviluppo di piattaforme microfluidiche utili per riprodurre il sistema neurovascolare umano. Piattaforme di questo tipo, chiamate chip, prevedono spesso l’utilizzo di idrogel. Nel mio elaborato viene presentato un lavoro recentemente pubblicato da Sokullu et al., nel quale gli autori presentano le prorietà del GelMA, un idrogel che mostra caratteristiche molto simili a quelle della matrice extracellulare naturale. Nel lavoro presentato, l’idrogel viene posto all’interno del microchip come base per la co-coltura di due linee cellulari umane, cellule di neuroblastoma e cellule endoteliali di vena ombelicale. Tramite test specifici si riscontra che il GelMA mostra appropriate proprietà biomeccaniche e determina nelle cellule in coltura una vitalità superiore all’80%. Il GelMA si rivela dunque una piattaforma utile per gli studi di colture cellulari 3D per lunghi periodi. Il lavoro analizzato prova inoltre che questa struttura permette di valutare eventi di invasione e migrazione di cellule tumorali suggerendo che il chip microfluidico possa essere impiegato per studi di ottimizzazione del dosaggio e delle modalità di somministrazione di farmaci chemioterapici.
Resumo:
Questo lavoro di tesi è incentrato sullo sviluppo di una soluzione applicativa nell'ambito dell'integrazione di sistemi software basati su tecnologie considerate legacy. In particolar modo è stato studiata una soluzione integrativa per il popolare ERP gestionale Sap su piattaforma Cloud OpenShift. La soluzione è articolata su diversi livelli basati sull'architettura proposta da Gartner nell'ambito della Digital Integration Hub. È stata sviluppata tramite tecnologie open source leader nel settore e tecnologie cloud avanzate.
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.
Resumo:
Gli eventi degli ultimi due decenni hanno mostrato come la Sardegna, in particolare il suo settore est, sia soggetta a frequenti eventi di precipitazione intensa che comportano perdita di vite umane e ingenti danni. Le alluvioni avvenute a Olbia nel 2013 o la più recente avvenuta a Bitti nel 2020 sono la dimostrazione dell’impatto che questi eventi possono avere sul territorio. Dal punto di vista della pratica previsionale di questi fenomeni intensi, è in uso presso ARPAS una classificazione dei cicloni avvenuti nel periodo compreso tra il 1957 e il 1999, che presentano configurazioni bariche simili e raggruppati in gruppi o “cluster”. Lo scopo di questo lavoro di tesi è estendere questa classificazione per il periodo 1951-1957 e 2000-2009, sulla base della configurazione sinottica in quota e al suolo in cui si sviluppano i cicloni appartenenti ai vari cluster. Tramite questa nuova classificazione, e utilizzando la temperatura superficiale media del mare, verrà analizzata la loro stagionalità e la loro durata temporale. Infine, sarà ricostruita la precipitazione legata ai diversi cluster suddividendo la precipitazione per i settori est e ovest dell’isola, per valutarne distribuzione e variabilità spaziale. I risultati mostrano come vi siano differenze tra i cicloni associati a ciascun cluster in base alle diverse configurazioni sinottiche. Un fattore importante è dato anche dalla stagione in cui i cicloni si verificano: emerge una frequenza maggiore nei mesi autunnali in cui le temperature medie mensili e l’anomalia di temperatura media risulta più alta. La distribuzione spaziale delle precipitazioni associate ai cluster conferma che le precipitazioni più intense e omogene interessano il settore est dell’isola. Poiché lo studio è basato interamente su una classificazione di tipo operativo in uso ad ARPAS, i suoi sviluppi riguardano soprattutto un maggior supporto e conoscenza previsionale degli eventi estremi sulla Sardegna.