988 resultados para modello epidemologia
Resumo:
Progetto di tesi svolto in azienda. Studio dei principali concetti di Business Intelligence (BI) e degli strumenti per la BI. Confronto tra i principali vendor nel mercato dell'analisi dei dati e della Business Intelligence. Studio e reigegnerizzazione di un modello per l'analisi economico finanziaria dei fornitori/clienti di un'azienda. Realizzazione di un prototipo del modello utilizzando un nuovo strumento per la reportistica: Tableau. Il prototipo si basa su dati economici finanziari estratti da banche dati online e forniti dall'azienda cliente. Implementazione finale del database e di un flusso automatico per la riclassificazione dei dati di bilancio.
Resumo:
Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
In questa tesi abbiamo studiato il comportamento delle entropie di Entanglement e dello spettro di Entanglement nel modello XYZ attraverso delle simulazioni numeriche. Le formule per le entropie di Von Neumann e di Renyi nel caso di una catena bipartita infinita esistevano già, ma mancavano ancora dei test numerici dettagliati. Inoltre, rispetto alla formula per l'Entropia di Entanglement di J. Cardy e P. Calabrese per sistemi non critici, tali relazioni presentano delle correzioni che non hanno ancora una spiegazione analitica: i risultati delle simulazioni numeriche ne hanno confermato la presenza. Abbiamo inoltre testato l'ipotesi che lo Schmidt Gap sia proporzionale a uno dei parametri d'ordine della teoria, e infine abbiamo simulato numericamente l'andamento delle Entropie e dello spettro di Entanglement in funzione della lunghezza della catena di spin. Ciò è stato possibile solo introducendo dei campi magnetici ''ad hoc'' nella catena, con la proprietà che l'andamento delle suddette quantità varia a seconda di come vengono disposti tali campi. Abbiamo quindi discusso i vari risultati ottenuti.
Resumo:
Con questa tesi ho voluto mettere insieme delle nozioni oggi basilari per chiunque voglia avere un quadro globale del geomagnetismo cercando di essere il più chiaro e esplicativo possibile nell'esposizione sia dal punto di vista matematico che linguistico. Non è stato, comunque, possibile affrontare in soli tre capitoli di tesi tutte le problematiche inerenti a una disciplina così ricca di informazioni e che si è evoluta in modo così rapido negli ultimi anni. La tesi inizia con un'introduzione storica sul magnetismo per passare, attraverso un quadro generale di elettromagnetismo e le equazioni fondamentali di Maxwell, a una descrizione del campo magnetico terrestre e delle sue variazioni spaziotemporali accompagnate da una descrizione dei fenomeni elettrici in atmosfera più importanti del nostro pianeta. Segue poi, nel secondo capitolo, una breve presentazione delle teorie sull'origine del campo e successivamente, tramite la magnetoidrodinamica, si passa alla teoria della dinamo ad autoeccitazione il cui funzionamento è preso come modello, fino ad oggi considerato il più valido, per spiegare le origini del campo magnetico terrestre. Infine, nel terzo ed ultimo capitolo, si parla del rapporto del campo magnetico terrestre con le rocce terrestri che introduce un approfondimento generale sul paleomagnetismo ossia del campo magnetico nel passato e che ruolo svolge nell'ambito della tettonica a placche.
Resumo:
Introduzione e scopo: la rapida diffusione delle malattie dismetaboliche sta modificando l’epidemiologia dell’epatocarcinoma (HCC). Scopo della tesi è, attraverso quattro studi, analizzare l’impatto di questi cambiamenti nella gestione clinica del paziente affetto da HCC. Materiali e metodi: quattro studi di coorte, condotti con analisi retrospettiva del database ITA.LI.CA. Studio 1:3658 pazienti arruolati tra il 01-01-2001 ed il 31-12-2012 suddivisi in base alla data di diagnosi:2001-2004 (954 pazienti), 2005-2008 (1122 pazienti), 2009-2012 (1582 pazienti). Studio 2:analisi comparativa tra 756 pazienti con HCC-NAFLD e 611 pazienti con HCC-HCV. Studio 3:proposta di quattro modelli alternativi al BCLC originale con validazione di una proposta di sottostadiazione dell’intermedio, considerando 2606 pazienti arruolati tra il 01-01-2000 e il 31-12-2012 e riallocati secondo gradi diversi di perfomance status (PS). Studio 4:analisi di 696 pazienti con HCC in stadio intermedio diagnosticato dopo il 1999 stratificati per trattamento. Risultati: studio 1:progressivo aumento dell’età alla diagnosi e delle eziologie dismetaboliche; più frequente esordio dell’HCC in stadio precoce e con funzione epatica più conservata; aumento della sopravvivenza dopo il 2008. Studio 2:i pazienti con HCC-NAFLD mostrano più frequentemente un tumore infiltrativo diagnosticato fuori dai programmi di sorveglianza, con prognosi peggiore rispetto ai pazienti HCC-HCV. Questa differenza di sopravvivenza si elimina rimuovendo i fattori di confondimento attraverso propensity analysis. Studio 3:il PS1 non è un predittore indipendente di sopravvivenza. Il modello 4 (considerando PS1=PS0 e con la sottostadiazione proposta), ha la migliore capacità discriminativa. Studio 4:i trattamenti curativi riducono la mortalità più della TACE, anche dopo propensity analysis. Conclusioni: l’aumento delle patologie dismetaboliche comporterà diagnosi di malattia ad uno stadio più avanzato, quando sintomatica, rendendo necessario stabilire un programma di sorveglianza. Inoltre per una migliore stratificazione e gestione dei pazienti, bisogna riconsiderare il ruolo del PS ed offrire un ventaglio di opzioni terapeutiche anche per il pazienti in stadio intermedio.
Resumo:
In the past two decades the work of a growing portion of researchers in robotics focused on a particular group of machines, belonging to the family of parallel manipulators: the cable robots. Although these robots share several theoretical elements with the better known parallel robots, they still present completely (or partly) unsolved issues. In particular, the study of their kinematic, already a difficult subject for conventional parallel manipulators, is further complicated by the non-linear nature of cables, which can exert only efforts of pure traction. The work presented in this thesis therefore focuses on the study of the kinematics of these robots and on the development of numerical techniques able to address some of the problems related to it. Most of the work is focused on the development of an interval-analysis based procedure for the solution of the direct geometric problem of a generic cable manipulator. This technique, as well as allowing for a rapid solution of the problem, also guarantees the results obtained against rounding and elimination errors and can take into account any uncertainties in the model of the problem. The developed code has been tested with the help of a small manipulator whose realization is described in this dissertation together with the auxiliary work done during its design and simulation phases.
Resumo:
La ricerca si colloca all’interno di un complesso intervento di cooperazione internazionale realizzato in El Salvador tra il 2009 e il 2014. Il Progetto di cooperazione è stato promosso dal Dipartimento di Scienze dell’Educazione dell’Università di Bologna e finanziato dalla Cooperazione Italiana. L’esperienza studiata rappresenta un esempio di promozione dell’inclusione nei sistemi scolastici di Paesi del Sud del mondo e si propone due obiettivi: 1) analizzare il processo di cambiamento della prospettiva di intervento promossa dalla cooperazione internazionale, evidenziando la dimensione educativa che sostiene processi di empowerment e ownership delle istituzioni locali; 2) contribuire al dibattito sull’ “inclusive education”, sostenendo processi di inclusione scolastica e sociale rivolti a tutti coloro che si trovano in situazione di svantaggio psico-fisico e/o socio-culturale. Le politiche locali del Ministero dell’Educazione dal 2009 hanno promosso un modello educativo con l’obiettivo di garantire il diritto all’educazione per tutti nella scuola pubblica. Lo studio costituisce un'indagine di tipo valutativo sul processo di sviluppo della scuola inclusiva in El Salvador, supportato dall’intervento di cooperazione internazionale. La ricerca utilizza in modo integrato strumenti di natura quantitativa (questionari) e qualitativa (interviste). Dai dati raccolti emerge come il processo di cooperazione sia stato caratterizzato dal principio della pari dignità tra esperti internazionali e autorità politiche e tecniche locali. Inoltre, la ricerca ha consentito di verificare come la cultura dell'inclusione si sia radicata in modo diffuso nella percezione della missione della scuola e il suo ruolo tra i protagonisti del sistema scolastico. Alla luce dei risultati, appare fondamentale continuare a investire sulla formazione tecnica delle figure chiave del sistema educativo; facilitare il processo di inclusione dei disabili nelle scuole regolari con una parallela trasformazione delle scuole speciali in centri di supporto all’integrazione; promuovere una sinergia di azione formativa tra il ministero, mondo accademico e della formazione professionale.
Resumo:
Il settore suinicolo ricopre un ruolo rilevante nel contesto nazionale, con ricadute economiche e sociali di primaria importanza in varie regioni. Tuttavia da alcuni anni il settore si trova in crisi a causa dell’instabilità dei mercati internazionali, dello scarso coordinamento tra gli attori della filiera, della progressiva riduzione della redditività dei prodotti trasformati a Denominazione di Origine, della mancata valorizzazione dei tagli di carne fresca, nonché della difficoltà di aggredire i mercati esteri. Altre criticità riguardano la distribuzione del valore lungo la filiera e la scarsa efficacia delle politiche di coordinamento finora adottate. L'obiettivo della ricerca è quello di identificare gli elementi che possono garantire maggiore equilibrio di potere negoziale tra allevatori suinicoli e macellatori rispetto alla situazione attuale: verificati gli elementi critici che caratterizzano la relazione commerciale tra allevatori e macellatori, si avanzano alcune proposte operative utili al superamento delle fratture tra la componente agricola e quella dei macelli in Emilia Romagna. La struttura della tesi è la seguente: (capitolo 1) si descrive il quadro economico del settore suinicolo a livello internazionale e nazionale. Successivamente (capitolo 2) si passano in rassegna le teorie economiche utili a comprendere le ragioni alla base del malfunzionamento dei rapporti tra gli attori della filiera agroalimentare, mentre nel terzo capitolo è richiamato il quadro normativo comunitario, nazionale e regionale all’interno del quale tali relazioni si configurano. Nel quarto capitolo si elabora un modello interpretativo al fine di spiegare le fratture che oggi contraddistinguono le relazioni in essere tra gli attori della filiera: il “modello delle fratture”. Alla luce di questa concettualizzazione è stata svolta un’indagine diretta svolta presso gli operatori aderenti all’Organizzazione Interprofessionale del Gran Suino Italiano, i cui risultati hanno consentito di valutare l’efficacia del modello interpretativo e di fornire indicazioni migliorative della strategia di governance delle relazioni tra allevatori e macellatori.
Resumo:
Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.
Resumo:
I tetti verdi rappresentano, sempre più frequentemente, una tecnologia idonea alla mitigazione alle problematiche connesse all’ urbanizzazione, tuttavia la conoscenza delle prestazioni dei GR estensivi in clima sub-Mediterraneo è ancora limitata. La presente ricerca è supportata da 15 mesi di analisi sperimentali su due GR situati presso la Scuola di Ingegneria di Bologna. Inizialmente vengono comparate, tra loro e rispetto a una superficie di riferimento (RR), le prestazioni idrologiche ed energetiche dei due GR, caratterizzati da vegetazione a Sedum (SR) e a erbe native perenni (NR). Entrambi riducono i volumi defluiti e le temperature superficiali. Il NR si dimostra migliore del SR sia in campo idrologico che termico, la fisiologia della vegetazione del NR determina l'apertura diurna degli stomi e conseguentemente una maggiore evapotraspirazione (ET). Successivamente si sono studiate la variazioni giornaliere di umidità nel substrato del SR riscontrando che la loro ampiezza è influenzata dalla temperatura, dall’umidità iniziale e dalla fase vegetativa. Queste sono state simulate mediante un modello idrologico basato sull'equazione di bilancio idrico e su due modelli convenzionali per la stima della ET potenziale combinati con una funzione di estrazione dell’ umidità dal suolo. Sono stati proposti dei coefficienti di correzione, ottenuti per calibrazione, per considerare le differenze tra la coltura di riferimento e le colture nei GR durante le fasi di crescita. Infine, con l’ausilio di un modello implementato in SWMM 5.1. 007 utilizzando il modulo Low Impact Development (LID) durante simulazioni in continuo (12 mesi) si sono valutate le prestazioni in termini di ritenzione dei plot SR e RR. Il modello, calibrato e validato, mostra di essere in grado di riprodurre in modo soddisfacente i volumi defluiti dai due plot. Il modello, a seguito di una dettagliata calibrazione, potrebbe supportare Ingegneri e Amministrazioni nella valutazioni dei vantaggi derivanti dall'utilizzo dei GR.
Resumo:
Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
Questo lavoro riguarda la sintesi e caratterizzazione di nanoparticelle basate sul magnesio per l'immagazzinamento di idrogeno. Le nanoparticelle sono state cresciute mediante Inert Gas Condensation, una tecnica aerosol in cui il materiale viene sublimato e diretto verso i substrati tramite un flusso di gas inerte, e caratterizzate attraverso microscopia elettronica e diffrazione di raggi X. Queste operazioni sono state eseguite presso il Dipartimento di Fisica e Astronomia dell'Università di Bologna. Sono stati sintetizzati due tipi di particelle: nel primo il magnesio viene deposto direttamente sul substrato, nel secondo esso incontra un flusso di ossigeno prima di depositarsi sulla superficie. In questo modo si formano delle particelle con struttura core-shell in cui la parte interna è formata da magnesio e quella esterna dal suo ossido. La presenza di una shell consistente dovrebbe permettere, secondo il modello di deformazioni elastiche, di diminuire il valore assoluto dell'entropia di formazione dell'idruro di magnesio, condizione necessaria affinché il desorbimento di idrogeno possa avvenire in maniera più agevole rispetto a quanto non accada col materiale bulk. Tutti i campioni sono stati ricoperti di palladio, il quale favorisce la dissociazione della molecola di idrogeno. La capacità di assorbimento dell'idrogeno da parte dei campioni è stata studiata mediante idrogenografia, una tecnica ottica recentemente sviluppata in cui la quantità di gas assorbita dal materiale è legata alla variazione di trasmittanza ottica dello stesso. Le misure sono state eseguite presso l'Università Tecnica di Delft. I risultati ottenuti evidenziano che le nanoparticelle di solo magnesio mostrano dei chiari plateau di pressione corrispondenti all'assorbimento di idrogeno, tramite cui sono stati stimati i valori di entalpia di formazione. Al contrario, i campioni con struttura core-shell, la cui crescita rappresenta di per sé un risultato interessante, non presentano tale comportamento.
Resumo:
Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.