999 resultados para Piano Operativo di Sicurezza
Resumo:
Bussi Officine è tra i più antichi impianti petrolchimici italiani. I residui di produzione venivano sversati nella discarica I Tre Monti sin dagli anni '70. A circa 2 km di distanza dalla discarica si trova il campo pozzi di Colle S’Angelo, che ha erogato acqua potabile alla città di Pescara fino al 2007. Dal 1992, solventi clorurati sono stati sversati in concentrazioni che variavano nell'ordine di 1x10-1 ppb. Lo scopo di questo lavoro è stato quello di effettuare uno studio piezometrico, sullo stato di contaminazione dell’area ed uno studio isotopico sulle unità acquifere contaminate. Nel 2017 è stato effettuato il campionamento delle acque sotterranee coinvolgendo 8 piezometri situati nelle zone di contaminazione più gravi applicandovi poi la tecnica CSIA per le analisi isotopiche sui contaminanti ed è stato rilevato il livello piezometrico dei piezometri insieme al livello idrico del fiume Pescara per ricostruire la relazione fiume-falda che è stata riscontrata su tutta l’area; l’andamento si presenta però differente: per gli acquiferi più superficiali si osserva un effetto alimentante del fiume rispetto alla falda; nel caso dell’acquifero più profondo, questo effetto è confermato solo nell’area della discarica, la falda diventa poi alimentante rispetto al fiume nei pressi del campo pozzi. I dati isotopici mostrano un trend verso l’arricchimento che aumenta con la distanza dalla zona sorgente di contaminazione, indice di un processo di degradazione attribuibile alle opere messe in atto per la Messa in Sicurezza d’Emergenza che nel tempo avrebbero causato una riduzione del flusso di ossigeno cambiando le condizioni redox, come testimoniano i valori fortemente negativi del potenziale. Per gli isotopi del cloro l’andamento è più complesso ed apparentemente anomalo rispetto al carbonio: il trend è in verso opposto con un progressivo impoverimento dalla zona sorgente, imputabile ad una possibile coesistenza di più processi provocati dalle opere costruite nel 2012.
Resumo:
I sistemi di analisi del movimento sono in continua espansione e vengono sempre maggiormente utilizzati in ambito sportivo e riabilitativo. In particolare, la valutazione delle lesioni di LCA è, attualmente, affidata a procedure classiche, oltre che a strumenti analitici Gold Standard come il sistema optoelettronico. L’utilizzo dei sensori inerziali per l’analisi del movimento è in notevole aumento e sempre più utilizzato anche negli ambiti descritti. Tuttavia, è da valutare l’accuratezza di tali sistemi nell’esecuzione di gesti complessi ad alta dinamica. L’obiettivo del presente elaborato è stato quello di validare un sistema di sensori inerziali tramite uno optoelettronico, per lo svolgimento di specifici task motori in un’ottica di prevenzione dell’infortunio al LCA. Sono stati valutati 30 soggetti sani, attraverso l’utilizzo sincrono di due tecnologie: il sistema optoelettronico Vicon e il sistema inerziale Xsens. I movimenti svolti dai soggetti rientravano in un protocollo per la prevenzione del LCA, sviluppato presso il centro Isokinetic, il quale comprende 6 task ad elevata dinamica, ricorrenti negli sport maggiori. Si è evinta un’ottima correlazione e basso errore per tutti gli angoli articolari analizzati sul piano sagittale, una buona correlazione sul piano frontale per la maggior parte degli angoli (esclusi caviglia e pelvi), ed una minore riproducibilità sul piano trasverso, in particolare negli angoli di caviglia ginocchio e pelvi. I risultati hanno mostrato una scarsa dipendenza dalla tipologia di task analizzato. La tecnologia inerziale ha dimostrato di essere un’ottima alternativa per l’analisi del movimento in task specifici per la valutazione della biomeccanica di LCA. Le discrepanze evinte possono essere riconducibili ai diversi protocolli cinematici utilizzati ed al posizionamento dei markers. Evoluzioni della tecnologia potrebbero migliorare la precisione di questi sensori offrendo informazioni ancor più dettagliate dove ora ci sono lacune.
Resumo:
I frutti secchi ed i semi commestibili hanno comprovati benefici per la salute, essendo il loro consumo relazionato con la riduzione del rischio di malattie croniche. Tuttavia, questi alimenti hanno un elevato potenziale allergico per una parte della popolazione mondiale. A causa del fatto che le allergie alimentari sono in aumento, diventa importante conoscere tutti i componenti presenti in un alimento, anche se in tracce. Il Regolamento UE n°1169/2011 ha normalizzato le leggi sull’etichettatura delle sostanze che causano allergie ed intolleranze alimentari. Di conseguenza, vi è l'urgente necessità di metodi specifici e affidabili in grado di rilevare allergeni negli alimenti che permettano di garantire la sicurezza alimentare e la conformità delle etichette, migliorando così la vita dei consumatori allergici. Sebbene le tecniche immunologiche siano più specifiche per l’identificazione di proteine allergeniche, le tecniche basate sul DNA sono più adatte per matrici alimentari molto complesse o nel caso di alimenti che hanno subito numerosi processi di trasformazione, mostrandosi come metodi alternativi affidabili. L’obiettivo di questo lavoro di tesi è stato quello di sviluppare una metodica per il rilevamento di specie allergeniche vegetali (frutta a guscio e semi commestibili) in matrici alimentari usando la tecnica del DNA Barcoding e la tecnica della Real-Time PCR. I vantaggi di queste tecniche sono, oltre alla necessità di quantità minime di campione, la possibilità di identificare varie specie allergeniche in simultaneo, anche dopo che queste abbiano subito processi di lavorazione. Si è inoltre fatta un’analisi fingerprinting dei composti volatili su matrici alimentari attraverso il gascromatografo HERACLES II. Le metodiche sviluppate possono fungere come metodi di screening veloci ed affidabili nella riduzione di possibili contaminazioni dei prodotti alimentari, rilevando la presenza o confermando l'assenza di allergeni.
Resumo:
Ultimamente si stanno sviluppando tecnologie per rendere più efficiente la virtualizzazione a livello di sistema operativo, tra cui si cita la suite Docker, che permette di gestire processi come se fossero macchine virtuali. Inoltre i meccanismi di clustering, come Kubernetes, permettono di collegare macchine multiple, farle comunicare tra loro e renderle assimilabili ad un server monolitico per l'utente esterno. Il connubio tra virtualizzazione a livello di sistema operativo e clustering permette di costruire server potenti quanto quelli monolitici ma più economici e possono adattarsi meglio alle richieste esterne. Data l'enorme mole di dati e di potenza di calcolo necessaria per gestire le comunicazioni e le interazioni tra utenti e servizi web, molte imprese non possono permettersi investimenti su un server proprietario e la sua manutenzione, perciò affittano le risorse necessarie che costituiscono il cosiddetto "cloud", cioè l'insieme di server che le aziende mettono a disposizione dei propri clienti. Il trasferimento dei servizi da macchina fisica a cloud ha modificato la visione che si ha dei servizi stessi, infatti non sono più visti come software monolitici ma come microservizi che interagiscono tra di loro. L'infrastruttura di comunicazione che permette ai microservizi di comunicare è chiamata service mesh e la sua suddivisione richiama la tecnologia SDN. È stato studiato il comportamento del software di service mesh Istio installato in un cluster Kubernetes. Sono state raccolte metriche su memoria occupata, CPU utilizzata, pacchetti trasmessi ed eventuali errori e infine latenza per confrontarle a quelle ottenute da un cluster su cui non è stato installato Istio. Lo studio dimostra che, in un cluster rivolto all'uso in produzione, la service mesh offerta da Istio fornisce molti strumenti per il controllo della rete a scapito di una richiesta leggermente più alta di risorse hardware.
Resumo:
Il CoViD-19, infezione dell’apparato respiratorio causata dal virus SARS-COV-2, può indurre una congestione polmonare acuta caratterizzata da dispnea, bassa saturazione di ossigeno e, spesso, infiltrazioni di liquido nei polmoni. In letteratura sono presenti diversi studi sul monitoraggio della congestione polmonare, seppur di diversa eziologia, per mezzo del segnale di bioimpedenza transtoracica. Questa grandezza quantifica la resistenza opposta dai tessuti al passaggio di una minima corrente alternata che diminuisce in relazione al maggiore contenuto di liquido nel tessuto polmonare patologico. Il monitoraggio remoto dello stato polmonare del paziente CoViD-19 mediante bioimpedenza transtoracica rappresenterebbe una soluzione ottimale in termini di pervasività, semplicità di sistema, sicurezza dal contagio e non invasività. Questo studio, inquadrato in un più ampio progetto regionale, MySIGN, si pone come obiettivo quello di caratterizzare il funzionamento di una scheda prototipale e individuare il setup sperimentale più idoneo per l’acquisizione dei segnali ECG e di bioimpedenza. Per confermare le ipotesi sulla variazione di impedenza è stato scelto come gold standard un sistema commerciale (Edema Guard Monitor) del quale sono state valutate la ripetibilità e sensibilità nell’effettuare misure di impedenza. Vengono perciò riportate le principali soluzioni progettuali per l’acquisizione dei segnali bioimpedenziometrici ed elettrocardiografici, le relative elaborazioni e gli algoritmi che permettono di ricavare stime di frequenza respiratoria, battito cardiaco e intervallo QT. Tali informazioni saranno poi integrate con misure di temperatura ed SpO2 in modo tale da fornire al personale sanitario una panoramica completa dello stato del paziente. La scheda di acquisizione verrà integrata nel dispositivo di telemonitoraggio del progetto MySIGN, il quale sarà impiegato in uno studio di sperimentazione clinica e successivamente andrà incontro all’iter di marcatura CE.
Resumo:
La città di Buenos Aires nasconde al suo interno numerose forze che si respingono e si amalgamano in un movimento continuo. L’area della Villa 31 rappresenta un nodo centrale in cui la città stocastica e la città deterministica si confrontano. In questo luogo, a lungo abbandonato, gli abitanti hanno dato vita ad un’altra città. Confrontarsi con questa realtà, significa analizzarne la storia e le vicissitudini politiche che la caratterizzano, ascoltare le voci di chi la vive e di ciò che la circonda. È necessario andare oltre ciò che è visibile e misurabile. Il progetto utilizza una metodologia in grado di astrarre la natura più intima del luogo, conservarla e restituirle nuovi spazi. Secondo il principio per cui, ogni essere umano ha diritto ad una casa degna in cui accrescere la propria persona e con la premessa che sia necessario uno stravolgimento del sistema economico-politico, il progetto offre una nuova visione della Villa 31. Grandi spazi verdi invadono il territorio e lo riconnettono al resto della città. Le abitazioni, dapprima ammucchiate le une alle altre, crescono in verticale attraverso un polmone che prolunga la vita pubblica dalla strada fino all’ultimo piano degli edifici. Le tradizioni della popolazione rimangono intatte e trovano nuovi e più grandi spazi in cui realizzarsi. Ogni abitante disporrà della libertà e dei mezzi per sostenere il suo focolare e mantenere lo spirito di unione e comunità che li contraddistingue.
Resumo:
L’argomento cardine dello studio in parola, inerisce al contesto culturale venutosi a creare a partire dagli anni Sessanta nella città di Bologna, da tempo amministrata da una giunta di sinistra. L’intento della ricerca ha dunque privilegiato un’indagine – sia generale, sia di dettaglio – in grado di restituire, nel modo più verosimile possibile, il peculiare “scenario felsineo” del dopoguerra a livello sociale, culturale, artistico, intellettuale e politico: modello ed espressione del buongoverno partecipativo. Da qui, l’esposizione degli eventi si proporrà di verificare il paradigmatico “Piano PEEP Centro Storico”, mettendone in luce la genesi culturale e le strategie mediatiche e comunicative predisposte per la sua promozione. A circa cinquant’anni dall’adozione del Piano (1973) – a parere di chi scrive – sembrava più utile (e, senza dubbio, più avvincente) focalizzare l’attenzione non sulle modalità “progettuali” e “attuative” applicate ai comparti del centro da risanare (attività già descritta ampiamente dalla storiografia), ma sull'ambito culturale bolognese nel quale esso è nato e del quale è divenuto esempio tra i più noti; in particolare, sulle persone che abitarono e amministrarono la città nei venti anni indagati: 1960-1980. Un’attenta verifica d’archivio, ha permesso inoltre – tramite la consultazione delle molte riviste pubblicate dall'amministrazione comunale – di prendere contezza delle innumerevoli iniziative artistiche organizzate a Bologna nel periodo storico analizzato, a riprova del fatto che in città, l’indicatore “qualità della vita” non potesse mai prescindere da una tangibile testimonianza di “cultura”. Di fatto, il “sedimento culturale” sarà ricercato ovunque dai nostri protagonisti – nelle aree antropizzate e in quelle naturali – nel tentativo di documentare le “tracce degli uomini” come bene inestimabile e inalienabile.
Resumo:
Data la pervasività dell’elettronica nella vita moderna, sempre più interesse è stato posto nelle applicazioni di localizzazione. In ambienti indoor e outdoor, dove sono richieste precisioni dell’ordine delle decine di centimetri, i classici servizi GNSS non sono applicabili. Una tecnologia promettente è quella a banda ultra-larga (UWB), affermata recentemente sul mercato. Un’alternativa potrebbe essere l’utilizzo di sensori ottici con marker di riferimento, però la presenza di fumo e idrometeore presenti nell’ambiente potrebbero andare ad oscurare i marker, rendendo impossibile la localizzazione. Lo scopo della tesi è volto a studiare un sistema di localizzazione UWB, progettato dall’Università di Bologna, ora sviluppato e commercializzato, in un’applicazione robotica. In particolare, l’idea è quella di porre il sistema di localizzazione sopra un elemento mobile, per esempio nella parte terminale di un braccio meccanico, al fine di localizzare un oggetto dotato di nodo UWB, ricavando dinamicamente la posizione relativa tra il braccio e l’oggetto. La tesi si concentra inizialmente a livello teorico sulle caratteristiche delle principali tecnologie coinvolte, in particolare i sistemi UWB e il filtraggio Bayesiano, per poi trattare i limiti teorici della localizzazione, nei concetti di Cramér-Rao lower bound (CRLB) e geometric dilution of precision (GDOP). Da questi, si motiva l’utilizzo della tecnica two-way ranging (TWR) come principio di raccolta delle misure per la localizzazione, per poi ricavare le curve teoriche dell’errore di localizzazione, tenendo conto dei limiti geometrici imposti, utilizzate come riferimento per l’analisi dell’errore ottenuto con il sistema reale. La tecnologia viene testata in tre campagne di misura. Nelle prime due si osserva la presenza di un piano metallico parallelo alla direzione di propagazione, per esaminare gli effetti delle riflessioni sulla localizzazione, mentre nella terza campagna si considera la presenza di acqua dolce.
Resumo:
La seguente tesi ha come oggetto l’area archeologica di Santa Croce a Ravenna (Emilia-Romagna), che si colloca all’interno della buffer zone dell’area monumentale della Basilica di San Vitale e del Mausoleo di Galla Placidia, sito UNESCO (dal 1996). L’area in oggetto risulta un palinsesto stratificato di manufatti, emersi dapprima in una campagna di scavo del XVIII secolo iniziati da Filippo Lanciani e successivamente approfondite in una campagna di scavo degli anni ’90 da Sauro Gelichi e Paola Novara. L’attuale configurazione è il risultato delle numerose trasformazioni che il luogo ha subito nel tempo non solo stratigrafiche ma anche a causa del fenomeno della subsidenza. Di recente l’area è stata oggetto di successivi allagamenti dovuti al malfunzionamento del sistema drenante, risolti di volta in volta grazie ai volontari della Mistral Protezione Civile e alla gestione e direzione della SABAP_RA. L’obbiettivo di questa tesi è fornire delle indicazioni per la conservazione e manutenzione preventiva e programmata dell’area. Il testo si compone di una fase analitica e di una fase di ricerca d’archivio e bibliografica, le quali si intrecciano con la lettura geometrica, della consistenza materica dell’oggetto e del suo stato di conservazione, analisi finalizzate alla redazione di un piano di manutenzione e conservazione dell’intero complesso. Al fine di sistematizzare le informazioni e renderle più fruibili per i gestori dell’area, si è fatto uso del sistema HBIM, ovvero una modellazione digitale tridimensionale arricchita con dati e informazioni non strettamente geometriche ma anche analitiche e di conoscenza del manufatto, quali notizie storiche, documenti d’archivio, analisi della consistenza e dell’attuale stato di conservazione. La tesi si conclude con alcune indicazioni e proposte progettuali per la valorizzazione dell’intera area.
Resumo:
La ricerca ha ad oggetto lo studio dell’evoluzione del ruolo del Presidente del Consiglio dei ministri all’interno delle dinamiche di funzionamento della forma di governo italiana. Difatti, la ricostruzione sistematica di tale figura sembra essere rimasta sempre in secondo piano rispetto alle complesse analisi riguardanti la forma di governo parlamentare. Dal totale silenzio dello Statuto albertino sul punto, agli svariati tentativi non sempre riusciti nel periodo statutario di disciplinare le competenze presidenziali con atti normativi, alle “fumose” parole dell’articolo 95 della Costituzione, che hanno lasciato coesistere interpretazioni divergenti sulla collocazione del Presidente del Consiglio all’interno della compagine governativa, sino alla tardiva attuazione del disposto costituzionale con la legge n. 400/88, con grande difficoltà tale figura è riuscita ad avere un riconoscimento espresso e stabile delle proprie attribuzioni costituzionali. Il lavoro di ricerca, pertanto, si propone di ricostruire il “ruolo” costituzionale di tale figura soprattutto alla luce delle recenti evoluzioni che hanno caratterizzato la forma di governo nazionale. Ponendo al centro l’analisi di tali fenomeni, il lavoro si sviluppa seguendo tre direttrici evidenziate dalla tre parti in cui esso si divide: un’analisi storico-evolutiva; un’analisi orizzontale e “di sistema” dell’impianto organizzativo dell’esecutivo e del suo vertice e un’analisi concreta di due “casi di studio”. La finalità della ricerca è quella di proporre una lettura del ruolo costituzionale del Presidente del Consiglio in una chiave più estesa: non limitato esclusivamente al coordinamento e alla direzione dell’attività endogovernativa, declinata principalmente nel campo normativo, ma che ricomprende anche il coordinamento delle politiche pubbliche di governo e funzionale allo svolgimento di un coordinamento “inter-istituzionale” e “di sistema”, che coinvolge le diverse strutture governative, il Parlamento e i diversi livelli di governo, anche sovranazionale.
Resumo:
La tesi si propone di ricostruire i tentativi di riforma della legislazione fascista alla base dell’ordinamento dei principali enti espostivi italiani, ossia la Biennale di Venezia, la Quadriennale di Roma e la Triennale di Milano, prendendo in esame l’iter che a partire dall’immediato dopoguerra avrebbe condotto, nel 1973, dopo ben ventotto anni di tentativi, all’approvazione del nuovo statuto della Biennale veneziana, che nelle intenzioni dei riformatori era chiamato a rappresentare il modello per la riorganizzazione non solo delle altre manifestazioni sorelle, ma di tutte le istituzioni pubbliche di cultura. In particolare, nell’ambito di questo processo, si intende qui valorizzare l’apporto del riformismo di marca azionista, incarnato al suo massimo grado dalla figura di Carlo Ludovico Ragghianti, che fu l’artefice e l’ispiratore di ben tre proposte di legge presentate in Parlamento, incentrate su due cardini principali: l’autonomia rispetto all’esecutivo e alla burocrazia, in linea con quanto stabilito dall’articolo 33 della Carta costituzionale, e la piena responsabilità sul piano gestionale-amministrativo affidata ai tecnici del settore, ossia gli artisti e i critici d’arte.
Resumo:
La disciplina del pareggio di bilancio è in continua evoluzione, soprattutto a fronte delle nuove esigenze finanziarie per contrastare la pandemia. Questo elaborato, studiando la governance economica strutturata dopo la crisi dei debiti, le derivanti scelte italiane in materia di costituzionalizzazione del pareggio di bilancio e le conseguenze sulle autonomie locali, dimostra come il sistema di gestione delle finanze pubbliche a livello comunitario si stia completando, generando un rapporto normativo ciclico tra il livello europeo e quello locale. Ne è emersa una conflittualità tra le Regioni e lo Stato, che è analizzata al fine di comprendere la giustiziabilità costituzionale del pareggio di bilancio, osservando le esigenze di bilanciamento tra l’equilibrio finanziario e la tutela dei diritti sociali. La Corte Costituzionale ha recentemente conferito, in via giurisprudenziale, alla Corte dei Conti la potestà di svolgere un controllo diretto di costituzionalità del rispetto dell’equilibrio di bilancio degli enti nazionali e territoriali. Particolare attenzione viene data, poi, a seguito degli effetti della pandemia da Covid-19 sui bilanci degli Stati. A fronte della crisi pandemica, per la prima volta dall’approvazione del TSCG, la Commissione ha attivato la clausola di salvaguardia generale per sospendere il Patto di Stabilità (c.d. escape clause). Questa clausola ha permesso ai Paesi di ricorrere agli scostamenti di bilancio. Viene infine analizzato il piano “Next Generation EU”, che centralizza i prestiti verso gli Stati membri nel bilancio dell’Unione ed attinge dal mercato dei capitali le risorse necessarie per finanziare un totale di 750 miliardi, attraverso l’emissione di obbligazioni “Eu Bills”. Per la prima volta nella storia, l’Unione, nelle parole della Commissione, agisce sui mercati come se fosse uno Stato. La portata straordinaria del NGEU, con l’emissione di titoli europei, porta ad una sostanziale mutualizzazione dei debiti ed appare come un passo fondamentale verso il completamento dell’UEM e di un sistema federale.
Resumo:
La tesi consiste in un saggio di edizione critica commentata dei frammenti pervenutici sotto il nome di Senofane di Colofone. Se la ricerca, negli ultimi anni, ha beneficiato di una raccolta aggiornata delle testimonianze su questo autore, per quanto concerne la sua produzione poetica un’acquisizione di tal sorta rimane tuttora un desideratum. A fronte dell’impossibilità di editare e commentare in maniera esaustiva tutte le testimonianze e i lacerti del corpus senofaneo (che, pur non molto numerosi, si caratterizzano per una vasta eterogeneità di problemi esegetici e critico-testuali), si sono privilegiati i frammenti elegiaci, forse il campo maggiormente bisognoso di indagini. L’elaborato si compone di tre sezioni principali. Nell’introduzione, dopo un inquadramento della dibattuta cronologia di Senofane e della sua variegata produzione poetica, si rivolge specifica attenzione a testimoni, forma, struttura, lingua e stile, metrica e prosodia dei frammenti elegiaci, allargando, ove possibile, l’indagine agli esametri stichici superstiti. Il testo critico dei lacerti sicuramente elegiaci, fondato su una rinnovata collazione dei testimoni (autoptica o su riproduzione digitale) e su un censimento il più possibile esaustivo dell’attività filologica dalle prime edizioni a stampa fino ai giorni nostri, è accompagnato da una traduzione di servizio e da un commento di carattere linguistico-filologico. Quattro appendici finali sono riservate ai frr. 21 G.-P. = 21 W., 13 G.-P. e 45 G.-P. = 41 W., che, pur non rubricabili con sicurezza fra i lacerti elegiaci, esibiscono con questi ultimi alcuni significativi punti di contatto.
Resumo:
In questa tesi sperimentale si vuole evidenziare le vulnerabilità informatiche dell’architettura di rete TCP/IP. Nella sicurezza informatica spesso si dà grande rilevanza a software come gli antivirus, o ai dispositivi come i firewall, mentre si sottovaluta di mettere in sicurezza l’architettura di rete stessa. Di fatto nonostante un utente possa utilizzare un sistema operativo o un browser ritenuto estremamente sicuro, se l’amministratore di una rete non ha messo in sicurezza la rete stessa, qualunque operazione di protezione del sistema operativo (OS) o del browser risulta vana. Oltre a dimostrare che qualunque OS e browser possa essere facilmente infettato se non è stata messa in sicurezza la rete in cui naviga, si dimostrerà anche che i protocolli ritenuti sicuri come HTTPS non siano esenti da vulnerabilità. Gli attacchi informatici che si andranno a sperimentare fanno parte della tipologia Man In The Middle. L’attaccante sarà inserito all’interno della rete locale, è per questo motivo che il firewall non potrà effettuare qualunque azione di controllo. In una media/grande impresa è abbastanza frequente avere l’accesso al Wi-Fi, ad esempio come cliente nella sala d’aspetto. Spesso questa connessione Wi-Fi non è isolata dalla rete utilizzata dalla stessa azienda. In questa tesi si andranno ad evidenziare le gravi criticità di cui una configurazione del genere è afflitta. In conclusione, dopo aver analizzato le vulnerabilità dell’architettura di rete TCP/IP, si andranno ad analizzare quali funzioni attivare, e come attivarle, all’interno di switch professionali come Aruba 2930F o router board semiprofessionali come il Mikrotik 750, per mettere in sicurezza una rete locale da questo tipo di attacchi informatici.
Resumo:
Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.