481 resultados para SWIMBLADDER RETE MIRABILE
Resumo:
Negli ultimi tempi la questione su come arginare il problema della diffusione delle fake news è diventata predominante sia nel dibattito pubblico che politico; in quanto miliardi di terabyte di foto, testi, video, informazioni si muovono quotidianamente attraverso le piattaforme social persuadendo in maniera più o meno efficace ciascun utente. Questo è tutto amplificato dal fatto che il mondo dell'informazione sia radicalmente cambiato col passare del tempo, in risposta alla crescita del fabbisogno informativo, dando maggiore importanza al numero di click piuttosto che all'attendibilità dell'informazione stessa. Nel contesto appena descritto i social media e la rete in generale hanno un ruolo molto importante in quanto tutti hanno diritto di parola al di là di meriti o conoscenze personali. Quello che conta davvero non è l’aderenza ai fatti, quanto la conformità con ciò a cui si crede e con la propria visione del mondo. L'uso e il significato del termine fake news si è evoluto nel tempo. Sebbene originariamente fosse utilizzato per fare riferimento a informazioni false e spesso clamorose diffuse sotto le spoglie di notizie, il termine si è evoluto ed è diventato sinonimo di diffusione di informazioni false che possono differenziarsi in base ai mezzi utilizzati per la falsificazione o in base all'intento per il quale sono state diffuse. L'obiettivo di questa tesi è quello di introdurre una rassegna delle metodologie atte a identificare e classifcare le fake news. Molti esperti hanno studiato modi per analizzare manualmente l'autenticità delle notizie; tuttavia, come valutarla in modo efficace è ancora una questione aperta. Nello specifico, la tesi fornisce anche un contributo per limitare la diffusione delle fake news sui social network, in quanto queste potrebbero influenzare o alterare l'opinione pubblica, contribuendo ad alimentare teorie complottistiche.
Resumo:
Al giorno d’oggi viviamo in una realtà dove lo sviluppo economico, l’innovazione tecnologica, la qualità della vita e l’impatto ambientale sono i protagonisti assoluti. Tutti, persino gli Stati del mondo, si trovano a fare i conti con varie problematiche riguardanti i quattro aspetti sopracitati e qui possiamo dire che la sostenibilità ne è il punto chiave e che al momento non sembra esistere ancora una metrica riconosciuta e approvata per consigliare, a chi di interesse, come modificare certi aspetti per crescere in modo sostenibile. Le Nazioni Unite hanno deciso, di comune accordo, di stilare una lista di obiettivi da raggiungere entro il 2030 dove è possibile trovare argomenti in linea con quanto descritto finora. Questa raccolta è principalmente divisa in aspetti economici, sociali e ambientali che sono le stesse categorie di dati impiegate per il calcolo del Sustainable Development Index. In questo elaborato ci si propone di progettare e sviluppare una rete neurale predittiva da affiancare a un sistema di feedback per realizzare un prodotto che sia abile di: descrivere il contesto di partenza tramite l’SDI e/o consigliare comportamenti per migliorare la situazione in modo sostenibile.
Resumo:
La disponibilità di connessioni a internet poco costose ed affidabili rappresenta un lusso in molti paesi in via di sviluppo e in zone rurali di nazioni sviluppate. L’utilizzo di nuove tecnologie come le blockchain risulta quindi difficile in queste aree, per quanto esse trarrebbero certamente beneficio dalla disponibilità di sistemi di pagamento digitali, decentralizzati e tolleranti ai guasti; inoltre l’uso delle blockchain in zone rurali potrebbe rendere l’abitabilità di tali aree maggiormente appetibile. Una possibile soluzione è costituita dalle blockchain locali, ossia catene a servizio di una ristretta area geografica in cui è disponibile solamente una rete locale, da cui potrebbero ricevere vantaggio sia paesi in via di sviluppo, sia scenari industriali dove si necessiti di blockchain il cui accesso debba avvenire solamente dall’interno dell’intranet aziendale. L’utilità delle blockchain locali risulterebbe tuttavia limitata qualora questi sistemi rimanessero totalmente isolati dal mondo esterno. Utilizzando tecnologie che permettono l’interoperabilità tra blockchain è però possibile interconnettere questi sistemi, rendendo possibile il trasferimento di asset tra diverse chain. Le particolarità degli scenari ipotizzati lasciano però spazio ad alcune vulnerabilità, che, se sfruttate, possono condurre ad attacchi ai danni degli utenti e dell’economia delle blockchain locali. Per risolvere le problematiche individuate, sono stati quindi discussi ed implementati una serie di requisiti per la messa in sicurezza del sistema.
Resumo:
Quello che intendo studiare sono i più importanti interventi antimonopolio negli ultimi 20 anni, per quanto riguarda le grandi potenze del web ossia Amazon, Apple, Google, Microsoft e Facebook. In particolare approfondirò tutti gli interventi applicati negli Stati Uniti d’America e in Europa nelle varie fasi temporali, ovvero dalla nascita dei colossi della rete, fino ad arrivare al periodo prepandemia, considerando che quest’ultima ha rappresentato un evento durante il quale si sono verificati dei cambiamenti fondamentali che hanno richiesto da parte delle autorità, ulteriori e successivi interventi e controlli per evitare abusi di potere. Ai fini della ricerca sarà importante studiare le origini della regolamentazione antitrust, sia in USA che in Europa da un punto di vista storico. Di conseguenza questi giganti del web hanno avuto l’opportunità di affermare il proprio potere e a volte di abusarne tanto da intensificare le attenzioni dell’antitrust nei loro confronti. Di conseguenza le vicende saranno seguite quotidianamente per mantenere lo studio aggiornato. Si tratta infatti di un settore in continuo divenire, la cui analisi sarebbe priva di significato senza una costante attenzione verso i cambiamenti.
Resumo:
L’elaborato di tesi tratta la manutenzione programmata delle gallerie analizzando il caso studio del cantiere Anas nella Galleria Valbiano, posta sulla SS 3 bis "Tiberina". Si è introdotto il tema analizzando la storia di Anas e le varie tipologie di gallerie e pacchetti stradali presenti. Si sono poi descritte le tipologie di manutenzione effettuate sulla rete stradale e le indagini specifiche per valutare lo stato di fatto sia delle pavimentazioni stradali che delle gallerie. Si è introdotto il cantiere oggetto di studio, la Galleria Valbiano, andando ad analizzare le peculiarità dell’opera e il contesto in cui è inserita. Si è dedotto lo stato di fatto della galleria andando ad analizzare i dati ottenuti dalle prove svolte e si sono descritti i difetti riscontrati. Nella fase operativa si è descritta la gestione dei flussi veicolari durante il cantiere, la sua organizzazione, e tutti gli interventi eseguiti nella canna Sud della galleria in oggetto. Gli interventi eseguiti hanno compreso riparazione di fessure, ripristini corticali del rivestimento, ripristini dei giunti degradati, la realizzazione di dispositivi di raccolta delle acque di piattaforma e di drenaggio, il rivestimento illuminotecnico dei piedritti, il ripristino dello strato di usura della pavimentazione e la realizzazione dell’impianto di illuminazione.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Nell’ambito della Stereo Vision, settore della Computer Vision, partendo da coppie di immagini RGB, si cerca di ricostruire la profondità della scena. La maggior parte degli algoritmi utilizzati per questo compito ipotizzano che tutte le superfici presenti nella scena siano lambertiane. Quando sono presenti superfici non lambertiane (riflettenti o trasparenti), gli algoritmi stereo esistenti sbagliano la predizione della profondità. Per risolvere questo problema, durante l’esperienza di tirocinio, si è realizzato un dataset contenente oggetti trasparenti e riflettenti che sono la base per l’allenamento della rete. Agli oggetti presenti nelle scene sono associate annotazioni 3D usate per allenare la rete. Invece, nel seguente lavoro di tesi, utilizzando l’algoritmo RAFT-Stereo [1], rete allo stato dell’arte per la stereo vision, si analizza come la rete modifica le sue prestazioni (predizione della disparità) se al suo interno viene inserito un modulo per la segmentazione semantica degli oggetti. Si introduce questo layer aggiuntivo perché, trovare la corrispondenza tra due punti appartenenti a superfici lambertiane, risulta essere molto complesso per una normale rete. Si vuole utilizzare l’informazione semantica per riconoscere questi tipi di superfici e così migliorarne la disparità. È stata scelta questa architettura neurale in quanto, durante l’esperienza di tirocinio riguardante la creazione del dataset Booster [2], è risultata la migliore su questo dataset. L’obiettivo ultimo di questo lavoro è vedere se il riconoscimento di superfici non lambertiane, da parte del modulo semantico, influenza la predizione della disparità migliorandola. Nell’ambito della stereo vision, gli elementi riflettenti e trasparenti risultano estremamente complessi da analizzare, ma restano tuttora oggetto di studio dati gli svariati settori di applicazione come la guida autonoma e la robotica.
Resumo:
La crescente disponibilità di scanner 3D ha reso più semplice l’acquisizione di modelli 3D dall’ambiente. A causa delle inevitabili imperfezioni ed errori che possono avvenire durante la fase di scansione, i modelli acquisiti possono risultare a volte inutilizzabili ed affetti da rumore. Le tecniche di denoising hanno come obiettivo quello di rimuovere dalla superficie della mesh 3D scannerizzata i disturbi provocati dal rumore, ristabilendo le caratteristiche originali della superficie senza introdurre false informazioni. Per risolvere questo problema, un approccio innovativo è quello di utilizzare il Geometric Deep Learning per addestrare una Rete Neurale in maniera da renderla in grado di eseguire efficacemente il denoising di mesh. L’obiettivo di questa tesi è descrivere il Geometric Deep Learning nell’ambito del problema sotto esame.
Resumo:
Il fenomeno noto come Internet of Things costituisce oggi il motore principale dell'espansione della rete Internet globale, essendo artefice del collegamento di miliardi di nuovi dispositivi. A causa delle limitate capacità energetiche e di elaborazione di questi dispositivi è necessario riprogettare molti dei protocolli Internet standard. Un esempio lampante è costituito dalla definizione del Constrained Application Protocol (CoAP), protocollo di comunicazione client-server pensato per sostituire HTTP in reti IoT. Per consentire la compatibilità tra reti IoT e rete Internet sono state definite delle linee guida per la mappatura di messaggi CoAP in messaggi HTTP e viceversa, consentendo così l'implementazione di proxies in grado di connettere una rete IoT ad Internet. Tuttavia, questa mappatura è circoscritta ai soli campi e messaggi che permettono di implementare un'architettura REST, rendendo dunque impossibile l'uso di protocolli di livello applicazione basati su HTTP.La soluzione proposta consiste nella definizione di un protocollo di compressione adattiva dei messaggi HTTP, in modo che soluzioni valide fuori dagli scenari IoT, come ad esempio scambio di messaggi generici, possano essere implementate anche in reti IoT. I risultati ottenuti mostrano inoltre che nello scenario di riferimento la compressione adattiva di messaggi HTTP raggiunge prestazioni inferiori rispetto ad altri algoritmi di compressione di intestazioni (in particolare HPACK), ma più che valide perchè le uniche applicabili attualmente in scenari IoT.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
L'elaborato è stato redatto durante il percorso di tirocinio svolto in azienda nel 2021. Esso consiste in un analisi energetica dello stabilimento Bonfiglioli S.p.a. di Forlì e nel piano di intervento realizzato sotto la guida del reparto Maintenance & Facilities. Dopo la raccolta dati dei consumi energetici, sia elettrici che termici, si è seguita la volontà aziendale di percorrere investimenti che rientrassero nel breve-medio periodo. Analizzando quindi i grafici ottenuti, si è valutata la possibilità di intervenire sulla produzione di aria compressa, in particolare sulla rete di distribuzione. Dopo aver riscontrato problemi di dimensionamento ed averne preventivato la sostituzione, si è passata alla ricerca di perdite lungo i vari punti della rete. Tramite un analisi fonometrica è stato possibile effettuarne la catalogazione e valutare l'intervento necessario; si è quindi costruito un file Excel che ha permesso di studiare la distribuzione delle perdite, i componenti più sensibili ed i costi ad esse associate. In conclusione si è analizzato, tramite la continua raccolta dati, l'effettivo andamento dell'investimento e si sono valutate le correlazioni con le variabili che più influenzano il consumo elettrico per la produzione di aria compressa, permettendo di comprendere la differenza fra il rientro teorico calcolato e quello effettivo. Il modello costruito permetterà inoltre di ottimizzare le scelte riguardanti i piani di manutenzione ed interventi futuri, dimostrando la necessità di un regolare controllo delle perdite sulla rete di distribuzione dell'aria compressa.
Resumo:
Il lavoro di tesi proposto è volto allo studio delle architetture Serverless, strutture che permettono agli sviluppatori di comporre facilmente applicazioni distribuite su molti servizi all’interno di un cloud, senza la necessità di gestire il server. Più nello specifico sono state studiate le FaaS (Function-as-a-Service), un modello di elaborazione cloud basato su eventi in cui il codice viene distribuito in container gestiti dalla piattaforma, e successivamente eseguito on-demand. A seguito di una prima parte di ricerca dello stato dell'arte, l'attenzione si è spostata sulla ricerca di vulnerabilità nel contesto del servizio OpenFaaS, un framework open-source che permette agli sviluppatori di distribuire facilmente funzioni e microservizi. Il deployment è stato fatto faasd, quest’ultimo è una semplificazione di OpenFaaS, usa le stesse componenti e lo stesso ecosistema di OpenFaaS ma usa Containerd al posto di Kubernetes. Dopo una prima fase di installazione e log-in il lavoro si è concentrato nelle varie metodologie di penetration test, nonché di ricerca delle vulnerabilità di sicurezza associate a tale paradigma. In informatica, il penetration test è il processo operativo di analisi o valutazione della sicurezza di un sistema o di una rete, simulando l'attacco di un potenziale utente malintenzionato. Nell'ultima fase sono stati condotti vari tentativi di attacco al sistema OpenFaaS tramite l'ausilio di alcuni tool. Inizialmente è stata fatta un'analisi della rete e del traffico tramite tool quali NMAP e Wireshark, per comprenderne meglio la struttura e come faasd creasse le funzioni a partire dai container. Infine, tramite OpenFaaS sono state create delle funzioni per testare la sicurezza e l'affidabilità di quest'ultima. In particolare, le funzioni indagano all'interno dei container al fine di comprendere la possibilità di eseguire code injection e rilevare possibili dati sensibili nel filesystem dell'immagine Docker così come nelle variabili d'ambiente.
Resumo:
Il progetto è stato sviluppato con l’idea di creare una rete attraverso la quale imbarcazioni da diporto relativamente vicine (10km), si possano scambiare informazioni sullo stato del mare e della navigazione, anche in assenza di una connessione a internet. In tal modo i dati dell’imbarcazione, come temperatura esterna, temperatura dell’acqua, vento, coordinate gps, AIS ecc... verrebbero condivisi attraverso la rete. In questo progetto è stata sviluppata un'infrastruttura in grado di far comunicare imbarcazioni da diporto su bande non licenziate, utilizzando solo materiale OpenSource, in particolare un protocollo chiamato LoRaMesh. Tale infrastruttura, non basandosi su uno standard definito, ha la possibilità di adattarsi a qualsiasi tipo di dato. Tutto il progetto si basa su schede PyCom, ed è stato sviluppato del codice in grado di fornire uno scambio di dati costante e un’interfacci BLE per comunicare con più dispositivi possibili. Per fornire un’esempio di come ci si può connettere con il BLE è stata scritta un’app per IOS che fornisce varie funzionalità, tra cui la possibilità di inviare dati GPS, molto utile per l’esecuzione dei vari test. Sono state svolte varie prove, in diversi luoghi e condizioni, utili a capire la portata massima dei dispositivi, e come la rete mesh si adatta e ripara.
Resumo:
Nel seguente elaborato di tesi si è studiata la riqualificazione energetica di un edificio ad uso espositivo, di notevole volumetria, durante una esperienza di tirocinio svolta presso MoRe Energy s.r.l.. Inizialmente il cliente ha commissionto il lavoro limitandosi al voler sostituire l'attuale impianto ad aria a servizio di una parte dell'immobile ma, in fase di lavoro, si è evidenziato che le notevoli dispersioni in inverno e gli apporti in estate erano tali da non garantire le corrette condizioni di comfort secondo le norme di settore. Si è quindi predisposta una dettagliata analisi dei carichi termici invernali ed estivi, predisponendo degli interventi sull'involucro tali da migliorare il benessere da un punto di vista globale. Per fare questo ci si è avvalsi del software commerciale DesignBuilder, che monta al suo interno EnergyPlus come motore di calcolo, un codice di calcolo dinamico molto performante basato sul metodo Ashrae Heat Balance. Valutati gli interventi sull'involucro si è passati a predisporre una soluzione impiantistica: si è valutato che un impianto ad aria misto con UTA e termoventilanti ad integrazione fosse la soluzione migliore per l'edificio. Infine, si è studiata una possibile canalizzazione dell'aria utilizzando il metodo a perdita di carico unitaria costante.
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.