980 resultados para Affidabilità, Sicurezza, Effetto domino, Dispersioni tossiche, Incendi, PHAST, ALOHA, EFFECTS
Resumo:
Negli ultimi anni, i cambiamenti nella raccolta dei rifiuti domestici e nei sistemi di gestione dello smaltimento hanno aumentato la quantità di compost prodotto nelle città italiane. L'applicazione di compost ai terreni agricoli permette il sequestro di forme stabili di C ed N. Data l’estesa superficie a vite che copre circa 660.000 ettari (ISTAT 2021), risulta interessante valutare l'utilizzo di compost su questa coltura. L’esperimento ha come scopo quello di studiare gli effetti di alcuni composti organici sulla fertilità chimica del suolo, sulla crescita della pianta e sulla qualità dell’uva. La prova è stata condotta a Cadriano, Bologna, su un vigneto di Sangiovese innestato su portinnesto 110 Richter, messo a dimora nel 2019 e allevato a cordone speronato. Nello specifico, sono stati utilizzati i seguenti fertilizzanti: 1) ammendante compostato misto (ACM), 2) gesso di defecazione (GDD) e 3) concime minerale. Dai risultati è emerso come il trattamento GDD abbia determinato un aumento della concentrazione di azoto minerale nel suolo, che si è manifestato principalmente con elevati livelli di azoto nelle foglie e una minor produzione. Al contrario l’ACM ha presentato un effetto simile al concime minerale e ha indotto, allo stesso tempo, una maggior produzione, senza effetti negativi sulla qualità dell’uva.
Valutazione dell'effetto dei campi elettrici pulsati sulle cinetiche di salagione di branzino fresco
Resumo:
In questo studio è stato valutato l'impatto dei campi elettrici pulsati applicati a diverse intensità (0.3, 0.9 e 1.5 kV/cm) su campioni di branzino fresco prima del processo di salamoiatura. Dopo 24, 96, 144 e 92 ore sono stati determinati il peso, il contenuto in acqua, la percentuale di NaCl, l'attività dell'acqua e il contenuto in TBARS nei campioni allo scopo di verificare la possibilità di accelerare il trasferimento di massa nella matrice, e in secondo luogo per valutare l'effetto dei campi elettrici pulsati sull'ossidazione lipidica.
Resumo:
L’obiettivo di questa trattazione è quello di esporre il rapporto controverso fra il diritto alla privacy, garantito ad ogni cittadino, e la tutela della sicurezza nazionale. L’episodio protagonista che verrà analizzato riguarda il contenzioso che, nel dicembre del 2015, ha coinvolto la società Apple Inc. e l’Fbi. Nella prima parte dell’elaborato l’attenzione verrà focalizzata sul concetto di privacy, approfondendo la sua diversa impostazione nelle normative americana e europea. In particolare, si partirà dal right to be let alone del 1890 per giungere a quella che è la concezione attuale del diritto alla protezione dei dati personali secondo il GDPR e il Privacy Act per poi elaborarne un confronto. Successivamente, verrà analizzato il tema della tutela della sicurezza pubblica facendo ricorso ad alcuni esempi di leggi emanate a seguito degli attentati terroristici dell’11 settembre. Nella seconda parte, dunque, si entrerà nel vivo della Strage di San Bernardino, ripercorrendo passo dopo passo le indagini. Il focus sarà lo scontro legale tra Apple e Fbi e le trattative in merito al dispositivo rinvenuto durante la strage. Infine, si ipotizzerà di “trasportare” il caso nella normativa europea, ossia immaginando la sua risoluzione qualora la normativa adottata non fosse stata quella americana.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
Recentemente il consumo di carne ha attirato l'attenzione per motivi salutistici, ambientali ed etici; pertanto è sempre più urgente considerare formulazioni di prodotti a base di carne più salutari e sostenibili inclusi in una dieta sana e nutriente. In questa tesi sono stati valutati gli effetti in vitro sul microbiota intestinale umano di salami riformulati sostituendo i nitriti con acido ascorbico e antiossidanti vegetali. A questo scopo è stato utilizzato il modello intestinale in vitro MICODE, nella versione che include la digestione gastro-duodenale seguita dalla fermentazione colonica. Gli effetti sul microbiota intestinale sono stati valutati attraverso tecniche di analisi quantitativa Real Time qPCR in base agli shift di alcune popolazioni microbiche, sia quelle benefiche (come Lactobacillales, Bifidobacteriaceae, Clostridium gruppo IV), sia quelle opportuniste (come Enterobacteriaceae, Clostridium gruppo I) e infine il rapporto Firmicutes/Bacteroidetes (importante indice di eubiosi del microbiota intestinale dell’ospite). Inoltre, sono state analizzate, tramite SPME-GC-MS, le molecole volatili prodotte in seguito alla fermentazione colonica, sia positive, come gli SCFA, sia negative, come fenolo e cresolo. I risultati ottenuti hanno mostrato che le formulazioni innovative promuovono una generale eubiosi del microbiota intestinale e una riduzione di popolazioni microbiche negative, in confronto ai controlli. Inoltre, l’analisi del volatiloma evidenzia una maggiore produzione di molecole benefiche e una maggiore riduzione delle molecole negative per l’ospite. Sebbene le formulazioni innovative non abbiano dato benefici nettamente superiori a quelli dei controlli, i risultati ottenuti sono promettenti, in quanto gli antiossidanti utilizzati in sostituzione hanno dato risultati comparabili a quelli ottenuti con il formulato tradizionale.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
Background I filtri dializzatori ad alto flusso potrebbero mitigare la “tempesta citochinica" nell'infezione da Sars-COV-2, ma il loro impatto nei pazienti in dialisi cronica non è accertato. Lo scopo delle studio è valutare l’effetto del filtro in triacetato asimmetrico di cellulosa (ATA) e in polimetilmetacrilato (PMMA) sui marcatori infiammatori in pazienti in dialisi cronica affetti da SARS-CoV-2. Metodi Si tratta di uno studio prospettico osservazionale su pazienti in trattamento emodialitico cronicp con COVID-19 arruolati da marzo 2020 a Maggio 2021.Le variabili cliniche, la conta leucocitaria, la IL-6, la proteina C-reattiva (PCR), la procalcitonina (PCT) e la ferritina sono state determinate al basale. I valori ematici di PCR, PCT, e IL-6 sono stati determinati pre e post-dialisi per ogni seduta effettuata (i valori ottenuti sono stati corretti per ’emoconcentrazione). I pazienti sono stati trattati con emodiafiltrazione online con un filtro ad alto flusso in PMMA o ATA. L’end-point primario è stato valutare l’effetto dei due filtri sulle molecole infiammatorie, in particolare sulla reduction ratio (RR) della IL-6. Risultati Dei 74 pazienti arruolati, 48 sono trati trattati con filtro ATA e 26 con filtro PMMA (420 vs 191 sedute dialitiche). La RR percentuale mediana della IL-6 è risultata maggiore nel gruppo ATA (17,08% IQR -9,0 - 40.0 vs 2,95% IQR -34,63 – 27,32. Anche le RR percentuale di PCR e PCT sono state maggiori nel gruppo ATA. La regressione logistica multipla avente come variabile dipendente una IL-6RR maggiore del 25%, ha mostrato che ATA determinava una maggiore probabilità di raggiungere l’outcome dopo correzione per i parametri infiammatori pre-dialisi (OR 1,721 95% CI 1,176 – 2,538 p=0,0056). Al contrario una PCR elevata riduceva la probabilità di ottenere una IL-6RR significativa (OR 0,9101 95% CI 0,868 – 0,949, p<0.0001). Conclusioni Nella nostra popolazione il filtro ATA ha mostrato un migliore profilo antiinfiammatorio.
Resumo:
La perfusione polmonare extracorporea (EVLP) è una tecnica utilizzata dal 2010 per valutare e migliorare la qualità dell'organo da trapiantare e il danno da ischemia-ripefusione (IRI). Tale perfusione utilizza la soluzione di Steen, la cui composizione è solo parzialmente nota. Lo scopo è quello di identificare gli effetti di T3 su IRI polmonare ex vivo, in un modello di ratto di donatore a cuore non battente. Animali (40) randomizzati in otto gruppi e il protocollo EVLP sono stati standardizzati nel nostro centro. Sono state valutate la funzione polmonare, PEEP, la resistenza vascolare polmonare totale a 45, 60, 120 e 180 minuti di EVLP per eseguire analisi di gas, dosaggio del mediatore di infiammazione, mitocondriale libero DNA, freeT3 e freeT4. Alla fine dei campioni di tessuto polmonare sono stati congelati dal dosaggio ATP, espressione genica, DNA mitocondriale, T3. Non date le concentrazioni del produttore, abbiamo analizzato gli acidi grassi liberi, vitamine, ormoni e composizione della soluzione Steen. Risultati La soluzione di steen contiene albumina umana x2 nel siero umano (7,5-8 g/dl): le concentrazioni di ft4 e ft3 sono x2 quelle nel siero umano e vengono rilasciati dall'albumina. La concentrazione di ft4 e ft3 non è cambiata durante l'EVLP. La Steen ha alta fluorescenza per l'alta concentrazione delle molecole aromatiche (ormoni) mai descritto in precedenza. NADH e mtDNA nel perfused aumenta con danno ischemico e nel gruppo trattato con T3 Conclusione Il modello EVLP è già convalidato nella perfusione nel trapianto polmonare, ma è necessario approfondire l'effetto della Steen in termini di ormoni e analiti. L'effetto sull'IRI dell'EVLP sembra essere influenzato negativamente da un T3 troppo alto in Steen, cosa che descriviamo per la prima volta. L'ulteriore aggiunta di T3 provoca disfunzione mitocondriale e infiammazione.
Resumo:
La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.
Resumo:
Il lavoro di tesi si è posto l'obiettivo di studiare il comportamento fluidodinamico di un reattore agitato meccanicamente, scale-down di un digestore anaerobico per la produzione di biogas, attraverso tecniche di diagnostica ottica. Le tecniche utilizzate sono state la Particle Image Velocimetry, PIV, e la Planar Laser Induced Fluorescence, PLIF. Le prove sono iniziate utilizzando acqua all’interno del reattore e sono proseguite utilizzando una soluzione di acqua e Carbometilcellulosa (CMC) a concentrazione di CMC progressivamente crescente per aumentare la viscosità apparente della soluzione non newtoniana con lo scopo di simulare il più realisticamente possibile la viscosità del contenuto reale del digestore. Tutte le diverse soluzioni sono state indagate per diverse velocità e diversi sensi di rotazione. Le prove di diagnostica ottica sono state progressivamente affiancate da prove al reometro di campioni di soluzione per il calcolo della viscosità apparente. La PIV ha fornito la misura del campo di moto di un piano, è stato scelto di analizzare un piano verticale. Il metodo di diagnostica ottica ho previsto l’utilizzo di quattro componenti: una sezione per il test otticamente trasparente contenente la soluzione inseminata con piccole particelle di tracciante (particelle di argento e vetro cavo) che seguono il flusso, una sorgente di illuminazione pulsata (laser), un dispositivo di registrazione (una telecamera digitale ad alta definizione) ed un software per la cross-correlazione delle immagini acquisite (DynamicStudio). La PLIF è stata implementata per lo studio del tempo caratteristico di miscelazione nel reattore. La strumentazione utilizzata è stata la stessa della PIV con un tracciante diverso a base di Rodhamina-6G. Lo studio ha riguardato il tempo necessario all’omogeneizzazione del tracciante mediante un’analisi del coefficiente di variazione, CoV, delle immagini acquisite.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’effetto della deplezione dietetica della lisina, in concomitanza o meno della supplementazione di due diverse tipologie di integratori alimentari, sui principali tratti qualitativi e sulle proprietà tecnologiche della carne di petto di pollo. Pertanto, 1620 polli maschi sono stati allevati e suddivisi in 4 gruppi sperimentali in funzione dei trattamenti dietetici che prevedevano la deplezione del contenuto di lisina nella dieta con l’aggiunta o meno di 2 diversi tipi di integratori nella fase starter. Al termine della prova (50gg), 12 muscoli pettorali/gruppo sono stati destinati all’analisi del pH, colore, drip e cooking loss e sforzo di taglio. I risultati ottenuti hanno evidenziato che la deplezione della lisina insieme all’aggiunta dell’integratore 2 (contenente un precursore della creatina) ha determinato una significativa modificazione del colore della carne in termini di luminosità e indice di rosso (a*) e un aumento del cooking loss rispetto al gruppo di controllo. Tuttavia, le modificazioni ottenute sono di lieve entità e non determinano un eventuale peggioramento qualitativo della carne. Infatti, la deplezione della lisina non ha fatto rilevare alcuna modificazione significativa nei confronti dei parametri qualitativi e tecnologici presi in esame. Considerata la limitata disponibilità di studi presenti in letteratura riguardo la restrizione dietetica della quota di lisina, questo studio suggerisce come la sua deplezione nel primo periodo di vita dell’animale possa rappresentare una strategia efficace per ridurre i costi di alimentazione e migliorare la sostenibilità del sistema di produzione senza influenzare negativamente la qualità della carne. Infatti, è noto che la riduzione della concentrazione di alcuni componenti della dieta possa determinare una minore escrezione di azoto e fosforo, migliorando così la sostenibilità ambientale del sistema produttivo.
Resumo:
L’obiettivo di questo studio è quello di valutare la stabilità foto-ossidativa di oli vegetali esposti a luce ultravioletta di bassa intensità per tempi brevi (da 5 min a 8 ore); lo scopo è quello di monitorare le prime fasi di ossidazione. Per la realizzazione di questo studio, è stato messo a punto un sistema di foto-ossidazione al fine di poter adottare condizioni di analisi le più ripetibili possibili e al fine di poter escludere il possibile effetto della temperatura. I campioni di olio analizzati nel presente lavoro di ricerca, tre oli raffinati e un olio extravergine di oliva, sono stati posti in provette di vetro trasparente da 20 ml, caricati poi all’interno della camera di ossidazione in gruppi di quattro e lasciati sotto l’effetto della luce ultravioletta per diversi tempi ovvero 0, 5, 10, 20, 30, 60, 240 e 480 minuti. Sono stati presi in considerazione i seguenti parametri qualitativi di analisi per valutare lo stato ossidativo dei nostri campioni, e cioè il numero di perossido, la concentrazione di esanale e il valore di p-anisidina. Dai risultati ottenuti è stato possibile osservare che complessivamente, a livelli di insaturazione e di presenza di antiossidanti naturali differenti, l’impatto dell’esposizione alla luce è stato piuttosto simile. I tre oli raffinati hanno mostrato valori ossidativi più contenuti, mentre per l’olio EVO sono state rilevate concentrazioni più alte sia per i perossidi che per l’esanale. Questo è dovuto alla presenza di alcuni composti ad azione pro-ossidante e composti aromatici che permangono nel prodotto in quanto questo olio non subisce il processo di raffinazione. La p-anisidina per tutte e quattro gli oli testati è rimasta piuttosto costante e lineare nel tempo senza subire considerevoli variazioni. Questo sottolinea il fatto che le condizioni di stress foto-ossidativo impiegate non sono state sufficienti a determinare un aumento significativo dei prodotti di ossidazione secondaria.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
Il lavoro di tesi proposto è volto allo studio delle architetture Serverless, strutture che permettono agli sviluppatori di comporre facilmente applicazioni distribuite su molti servizi all’interno di un cloud, senza la necessità di gestire il server. Più nello specifico sono state studiate le FaaS (Function-as-a-Service), un modello di elaborazione cloud basato su eventi in cui il codice viene distribuito in container gestiti dalla piattaforma, e successivamente eseguito on-demand. A seguito di una prima parte di ricerca dello stato dell'arte, l'attenzione si è spostata sulla ricerca di vulnerabilità nel contesto del servizio OpenFaaS, un framework open-source che permette agli sviluppatori di distribuire facilmente funzioni e microservizi. Il deployment è stato fatto faasd, quest’ultimo è una semplificazione di OpenFaaS, usa le stesse componenti e lo stesso ecosistema di OpenFaaS ma usa Containerd al posto di Kubernetes. Dopo una prima fase di installazione e log-in il lavoro si è concentrato nelle varie metodologie di penetration test, nonché di ricerca delle vulnerabilità di sicurezza associate a tale paradigma. In informatica, il penetration test è il processo operativo di analisi o valutazione della sicurezza di un sistema o di una rete, simulando l'attacco di un potenziale utente malintenzionato. Nell'ultima fase sono stati condotti vari tentativi di attacco al sistema OpenFaaS tramite l'ausilio di alcuni tool. Inizialmente è stata fatta un'analisi della rete e del traffico tramite tool quali NMAP e Wireshark, per comprenderne meglio la struttura e come faasd creasse le funzioni a partire dai container. Infine, tramite OpenFaaS sono state create delle funzioni per testare la sicurezza e l'affidabilità di quest'ultima. In particolare, le funzioni indagano all'interno dei container al fine di comprendere la possibilità di eseguire code injection e rilevare possibili dati sensibili nel filesystem dell'immagine Docker così come nelle variabili d'ambiente.