412 resultados para protocolli, trasporto, ipv6


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los ataques a redes de información son cada vez más sofisticados y exigen una constante evolución y mejora de las técnicas de detección. Para ello, en este proyecto se ha diseñado e implementado una plataforma cooperativa para la detección de intrusiones basada en red. En primer lugar, se ha realizado un estudio teórico previo del marco tecnológico relacionado con este ámbito, en el que se describe y caracteriza el software que se utiliza para realizar ataques a sistemas (malware) así como los métodos que se utilizan para llegar a transmitir ese software (vectores de ataque). En el documento también se describen los llamados APT, que son ataques dirigidos con una gran inversión económica y temporal. Estos pueden englobar todos los malware y vectores de ataque existentes. Para poder evitar estos ataques, se estudiarán los sistemas de detección y prevención de intrusiones, describiendo brevemente los algoritmos que se tienden a utilizar en la actualidad. En segundo lugar, se ha planteado y desarrollado una plataforma en red dedicada al análisis de paquetes y conexiones para detectar posibles intrusiones. Este sistema está orientado a sistemas SCADA (Supervisory Control And Data Adquisition) aunque funciona sobre cualquier red IPv4/IPv6, para ello se definirá previamente lo que es un sistema SCADA, así como sus partes principales. Para implementar el sistema se han utilizado dispositivos de bajo consumo llamados Raspberry PI, estos se ubican entre la red y el equipo final que se quiera analizar. En ellos se ejecutan 2 aplicaciones desarrolladas de tipo cliente-servidor (la Raspberry central ejecutará la aplicación servidora y las esclavas la aplicación cliente) que funcionan de forma cooperativa utilizando la tecnología distribuida de Hadoop, la cual se explica previamente. Mediante esta tecnología se consigue desarrollar un sistema completamente escalable. La aplicación servidora muestra una interfaz gráfica que permite administrar la plataforma de análisis de forma centralizada, pudiendo ver así las alarmas de cada dispositivo y calificando cada paquete según su peligrosidad. El algoritmo desarrollado en la aplicación calcula el ratio de paquetes/tiempo que entran/salen del equipo final, procesando los paquetes y analizándolos teniendo en cuenta la información de señalización, creando diferentes bases de datos que irán mejorando la robustez del sistema, reduciendo así la posibilidad de ataques externos. Para concluir, el proyecto inicial incluía el procesamiento en la nube de la aplicación principal, pudiendo administrar así varias infraestructuras concurrentemente, aunque debido al trabajo extra necesario se ha dejado preparado el sistema para poder implementar esta funcionalidad. En el caso experimental actual el procesamiento de la aplicación servidora se realiza en la Raspberry principal, creando un sistema escalable, rápido y tolerante a fallos. ABSTRACT. The attacks to networks of information are increasingly sophisticated and demand a constant evolution and improvement of the technologies of detection. For this project it is developed and implemented a cooperative platform for detect intrusions based on networking. First, there has been a previous theoretical study of technological framework related to this area, which describes the software used for attacks on systems (malware) as well as the methods used in order to transmit this software (attack vectors). In this document it is described the APT, which are attacks directed with a big economic and time inversion. These can contain all existing malware and attack vectors. To prevent these attacks, intrusion detection systems and prevention intrusion systems will be discussed, describing previously the algorithms tend to use today. Secondly, a platform for analyzing network packets has been proposed and developed to detect possible intrusions in SCADA (Supervisory Control And Data Adquisition) systems. This platform is designed for SCADA systems (Supervisory Control And Data Acquisition) but works on any IPv4 / IPv6 network. Previously, it is defined what a SCADA system is and the main parts of it. To implement it, we used low-power devices called Raspberry PI, these are located between the network and the final device to analyze it. In these Raspberry run two applications client-server developed (the central Raspberry runs the server application and the slaves the client application) that work cooperatively using Hadoop distributed technology, which is previously explained. Using this technology is achieved develop a fully scalable system. The server application displays a graphical interface to manage analytics platform centrally, thereby we can see each device alarms and qualifying each packet by dangerousness. The algorithm developed in the application calculates the ratio of packets/time entering/leaving the terminal device, processing the packets and analyzing the signaling information of each packet, reating different databases that will improve the system, thereby reducing the possibility of external attacks. In conclusion, the initial project included cloud computing of the main application, being able to manage multiple concurrent infrastructure, but due to the extra work required has been made ready the system to implement this funcionality. In the current test case the server application processing is made on the main Raspberry, creating a scalable, fast and fault-tolerant system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudio preliminar de la edición facsímil del libro publicado en 1743. Serie : Fondo antiguo de la Escuela Técnica Superior de Arquitectura de Madrid ; 7

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, si sono diffusi nuove strategie per il trattamento delle malattie cardiovascolari, che possano supportare una terapia medica, o in alcuni casi, sostituirla. Infatti, l’abbandono delle terapie è il più importante problema di salute pubblica del mondo occidentale, soprattutto per le malattie croniche. Ciò è dovuto alla complessità delle terapie farmacologiche e ai numerosi e in alcuni casi gravi effetti collaterali dei farmaci somministrati. Di conseguenza, una riduzione di questi effetti migliorerebbe le condizioni di vita del paziente e quindi diminuirebbe il rischio di abbandono della terapia. Per ottenere ciò, è possibile affiancare al trattamento farmacologico una terapia nutraceutica, consistente nella somministrazione di complessi molecolari o microorganismi, provenienti da piante, latte o cibi funzionali. Lo scopo generale di questo studio è indagare le attività ipolipidemizzanti di un composto nutraceutico e di un ceppo batterio specifico nel modello animale che presenta elevati alti livelli plasmatici di colesterolo. Inoltre, sono stati analizzati gli effetti del trattamento nutraceutico sui meccanismi fisiologici che contrastano la creazione della placca aterosclerotica come l’efflusso di colesterolo dalle “foam cells” presenti nell’ateroma, o la riduzione dell’assorbimento intestinale di colesterolo. La presente tesi è divisa in due parti. Nella prima parte, abbiamo analizzato la capacità dei Bifidobacteria di ridurre i livelli di colesterolo nel medium di crescita. Dall’analisi, si è osservato che vari ceppi del genere Bifidobacteria presentano un’ampia capacità di assimilazione del colesterolo all’interno della cellula batterica, in particolare il Bifidobacterium bifidum PRL2010. Le analisi di trascrittomica del Bb PRL2010 incubato in presenza di colesterolo, hanno rivelato un significativo aumento dei livelli di trascrizione di geni codificanti trasportatori e riduttasi, responsabili del meccanismo di accumulo all’interno della cellula batterica e della conversione del colesterolo in coprostanolo. L’attività ipolipidemizzante del Bb PRL2010 è stata poi valutata nel modello murino, mostrando la modificazione del microbiota dei topi trattati dopo somministrazione del batterio in questione. Nella seconda parte del progetto di ricerca, abbiamo indagato sugli effetti di un composto coperto da brevetto, chiamato “Ola”, sull’efflusso di colesterolo di criceti trattati con questo composto nutraceutico. L’efflusso di colesterolo è il primo step del meccanismo fisiologico noto come Trasporto Inverso del Colesterolo, che consente l’eliminazione del colesterolo dalle placche aterosclerotiche, attraverso l’interazione fra le HDL, presenti nella circolazione sanguigna, e specifici trasportatori delle foam cells, come ABCA1/G1 e SR-BI. In seguito, le lipoproteine rilasciano il colesterolo alle cellule epatiche, dove è metabolizzato ed escreto attraverso le feci. Per valutare l’effetto dell’Ola sul profilo lipidico dei criceti, sono state condotte analisi in vitro. I risultati mostrano un aumento dell’efflusso di colesterolo in cellule che esprimono il trasportatore ABCA1, comparato con il gruppo controllo. Questi due studi mostrano come l’approccio nutraceutico può essere un importante modo per contrastare l’aterosclerosi. Come mostrato in letteratura, gli effetti dei composti nutraceutici sull’aterosclerosi e su altre malattie croniche, hanno portato a un ampio uso come supporto alle terapie farmacologiche, ed in alcuni casi hanno rimpiazzato la terapia farmacologica stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca punta a ricostruire il complesso e travagliato processo decisionale che porta alla realizzazione del quarto centro siderurgico di Taranto. Il grande stabilimento viene progettato nel 1955, approda sui tavoli del comitato di Presidenza della Finsider nel settembre del 1956 e dopo quasi quattro anni di dibattiti e dietrofront ottiene il via libera dal consiglio dei Ministri il 9 giugno del 1959. La prima pietra del centro verrà posta il 10 luglio del 1960, il primo settore (un tubificio) inaugurato nel 1961, mentre il resto del complesso entrerà in funzione nel 1964. Ispiratore del centro è Pasquale Saraceno e gli uomini dell'associazione Svimez, convinti sostenitori dell'industrializzazione dell'Italia Meridionale. Il progetto sostenuto apertamente dalla Democrazia Cristiana a partire dal 1956 e in seguito da tutte le forze politiche, viene convintamente osteggiato dall'Impresa Pubblica, Finsider in testa, che vede messa a repentaglio l'autonomia imprenditoriale del gruppo e i propri equilibri economici. Il centro meridionale è considerato strategicamente penalizzante ed economicamente sconveniente, dato che i maggiori centri industriali italiani del tempo si trovano nell'Italia Settentrionale (quindi una localizzazione meridionale comporterebbe un aggravio di costi per le operazioni di trasporto dell'acciaio). L'Impresa pubblica opterebbe su una politica imprenditoriale più prudente, incentrata sul potenziamento graduale dei centri già esistenti. Non così la Politica decisa ad attuare una svolta in grado di realizzare evidenti progressi nell'economia meridionale. La nostra ricerca ha cercato di ricostruire l'impegno e le manovre dei principali partiti politici e parallelamente le strategie e le ragioni dell'Impresa pubblica tenendo anche conto del grande dibattito sorto sulla stampa nazionale tra favorevoli e contrari al progetto e al coinvolgimento dell'opinione pubblica meridionale in particolare pugliese. La ricerca si divide in tre parti (dedicate alle origini del progetto (1954-1955), gli sviluppi della vicenda (1957-1958), il via libera al centro (1959-1960) e si articola in sei capitoli (Meridione e industrializzazione: verso il quarto centro siderurgico; La siderurgia italiana verso il boom: il progetto del IV centro a ciclo integrale; La polemica Iri – Dc: uno scontro istituzionale; Il Pci e il centro siderurgico di Taranto; La vicenda Vado Ligure e la posizione dell'impresa privata; L'approvazione del progetto). La tesi cerca di mettere a fuoco la posizione della Politica (Dc e Pci su tutti), della Tecnica (Iri e Finsider ma anche progetti e impegno dei privati, quali la Fiat e la Falck) e della società civile (soprattutto quella tarantina dedicando una certa attenzione al mondo cattolico). La ricerca si è svolta su più livelli. Nel primo anno si è compiuta un'approfondito studio presso l'archivio dell'Iri (conservato presso l'Archivio Centrale dello Stato a Roma), della Dc (Istituto Sturzo, Roma), del Pci (Istituto Gramsci Roma). Il secondo ha permesso di soffermarsi sulle vicende di Taranto (Archivio dell'Arcidiocesi, Archivio del Comune, Biblioteca Comunale). Il terzo è stato focalizzato ancora su vicende politiche e finanziarie (Archivio Storico Banca d'Italia, Archivio Giulio Andreotti, Archivio storico del Senato, tutti con sede a Roma). L'esame dei verbali dei Comitati esecutivi della Finsider per gli anni 1954 -1959 rivela una chiara direzione: la Finsider studia con grande rigore la situazione del mercato italiano, delle varie aziende e dei centri produttivi del Gruppo. Un rigore finalizzato alla chiusura dei centri ritenuti antiquati e poco funzionali e al potenziamento di quelli più moderni e dalle dimensioni imponenti. Un'azione tesa ad incrementare la produzione, essere competitivi sul mercato internazionale e salvaguardare il vero faro dell'azienda in quegli anni: l'economicità. Cioè ottenere il più possibile tutelando gli equilibri finanziari del Gruppo. E' per questo che per ben due anni, i funzionari dell'azienda avanzano progetti complementari, come quello del piccolo centro di Apuania, ma il Comitato esecutivo pur considerando l'investimento indispensabile e conveniente, decide di rinviarne la realizzazione. Gli elementi più rilevanti sono emersi per l'anno 1957. E' noto come il centro siderurgico meridionale fosse messo a rischio da un altro progetto avanzato dalla Fiat, decisa a realizzare un proprio stabilimento nell'Italia settentrionale, a Vado Ligure. Il centro avrebbe dovuto rifornire di acciaio gli stabilimenti della casa automobilistica rendendola indipendente dall'Industria di Stato. Nel caso si fosse realizzato il centro di Vado (al quale la Fiat rinuncerà nel 1957) sarebbe risultato impossibile realizzarne un altro nel Meridione (a quel punto la produzione avrebbe superato i consumi). Dai dati esaminati emerge una trattativa finora inedita che vede il coinvolgimento della Finsider e di privati stranieri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Helicobacter pylori è un batterio Gram-negativo in grado di colonizzare la mucosa gastrica umana e persistere per l'intero arco della vita dell'ospite. E' associato a patologie gastrointestinali, quali gastrite cronica, ulcere gastriche e duodenali, adenocarcinomi e linfomi gastrici. Si tratta di uno dei patogeni più diffusi, presente in circa metà della popolazione mondiale, e il solo che si è adattato a vivere nell'ambiente ostile dello stomaco umano. Molteplici sono i fattori di virulenza che permettono al batterio la colonizzazione della nicchia gastrica e contribuiscono, anche attraverso l' induzione di una risposta infiammatoria, a profonde modificazioni dell' omeostasi gastrica. Queste ultime si associano, ad esempio, all'iperproduzione di fattori proinfiammatori, ad alterazioni sia della regolazione della secrezione acida gastrica sia del ciclo cellulare e della morte cellulare programmata (apoptosi) delle cellule epiteliali gastriche, a disordini nel metabolismo del ferro e a carenze di elementi essenziali. Studi sulla diversità genetica di H. pylori osservata in ceppi isolati da varie regioni del mondo, dimostrano che tale batterio ha avuto una coevoluzione col genere umano attraverso la storia, ed è verosimile che H. pylori sia stato un costituente del microbiota gastrico per almeno 50.000 anni. Scopo della tesi è stato quello di identificare e caratterizzare proteine importanti per la colonizzazione e l'adattamento di H. pylori alla nicchia gastrica. In particolare gli sforzi si sono concentrati su due proteine periplasmatiche, la prima coinvolta nella difesa antiossidante (l'enzima catalasi-like, HP0485), e la seconda nel trasporto di nutrienti presenti nell'ambiente dello stomaco all'interno della cellula (la componente solubile di un ABC transporter, HP0298). La strategia utilizzata prevede un'analisi bioinformatica preliminare, l'ottenimento del gene per amplificazione, mediante PCR, dal genoma dell'organismo, la costruzione di un vettore per il clonaggio, l'espressione eterologa in E. coli e la successiva purificazione. La proteina così ottenuta viene caratterizzata mediante diverse tecniche, quali spettroscopia UV, dicroismo circolare, gel filtrazione analitica, spettrometria di massa. Il capitolo 1 contiene un'introduzione generale sul batterio, il capitolo 2 e il capitolo 3 descrivono gli studi relativi alle due proteine e sono entrambi suddivisi in un abstract iniziale, un'introduzione, la presentazione dei risultati, la discussione di questi ultimi, i materiali e i metodi utilizzati. La catalasi-like (HP0485) è una proteina periplasmatica con struttura monomerica, appartenente ad una famiglia di enzimi a funzione per la maggior parte sconosciuta, ma evolutivamente correlati alla ben nota catalasi, attore fondamentale nella difesa di H. pylori, grazie alla sua azione specifica di rimozione dell'acqua ossigenata. HP0485, pur conservando il fold catalasico e il legame al cofattore eme, non può compiere la reazione di dismutazione dell'acqua ossigenata; possiede invece un'attività perossidasica ad ampio spettro, essendo in grado di accoppiare la riduzione del perossido di idrogeno all'ossidazione di diversi substrati. Come la catalasi, lavora ad alte concentrazioni di aqua ossigenata e non arriva a saturazione a concentrazioni molto elevate di questo substrato (200 mM); la velocità di reazione catalizzata rimane lineare anche a questi valori, aspetto che la differenzia dalle perossidasi che vengono in genere inattivate da concentrazioni di perossido di idrogeno superiori a 10-50 mM. Queste caratteristiche di versatilità e robustezza suggeriscono che la catalasi-like abbia un ruolo di scavenger dell'acqua ossigenata e probabilmente anche un'altra funzione connessa al suo secondo substrato, ossia l'ossidazione di composti nello spazio periplasmatico cellulare. Oltre alla caratterizzazione dell'attività è descritta anche la presenza di un ponte disolfuro, conservato nelle catalasi-like periplasmatiche, con un ruolo nell'assemblaggio dell'eme per ottenere un enzima attivo e funzionale. La proteina periplasmatica HP0298, componente di un sistema di trasporto ABC, è classificata come trasportatore di dipeptidi e appartiene a una famiglia di proteine in grado di legare diversi substrati, tra cui di- e oligopeptidi, nichel, eme, glutatione. Benchè tutte associate a trasportatori di membrana batterici, queste proteine presentano un dominio di legame al substrato che risulta essere conservato nei domini extracellulari di recettori specifici di mammifero e uomo. Un esempio sono i recettori ionotropici e metabotropici del sistema nervoso. Per caratterizzare questa proteina è stato messo a punto un protocollo di ligand-fishing accoppiato alla spettrometria di massa. La proteina purificata, avente un tag di istidine, è stata incubata con un estratto cellulare di H. pylori per poter interagire con il suo substrato specifico all'interno dell'ambiente naturale in cui avviene il legame. Il complesso proteina-ligando è stato poi purificato per cromatografia di affinità e analizzato mediante HPLC-MS. L'identificazione dei picchi differenziali tra campioni con la proteina e 5 campioni di controllo ha portato alla caratterizzazione di pentapeptidi particolarmente ricchi in aminoacidi idrofobici e con almeno un residuo carico negativamente. Considerando che H. pylori necessita di alcuni aminoacidi essenziali, per la maggior parte idrofobici, e che lo stomaco umano è particolarmente ricco di peptidi prodotti dalla digestione delle proteine introdotte con il cibo, il ruolo fisiologico di HP0298 potrebbe essere l'internalizzazione di peptidi, con caratteristiche specifiche di lunghezza e composizione, che sono naturalmente presenti nella nicchia gastrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo documento ho analizzato lo scenario della passata e dell’odierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a sé ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete più veloci, sicuri ed affidabili. I classici protocolli oramai non sono più sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedrà, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed è uno strumento ormai alla portata di tutti e non più privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma l’idea che già si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedrà come queste ultime affermazioni possano diventare realtà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il principale componente non idrocarburico contenuto nel gas naturale è l’acqua che viene rimossa mediante assorbimento con glicole trietilenico, il processo di trattamento più comune nella produzione di gas naturale. La presenza di acqua libera nel gas deve essere rimossa totalmente, per evitare la formazione di condensa nelle condizioni di trasporto e di distribuzione più critiche cioè a pressione elevata e a bassa temperatura. Obiettivo di questa tesi è l’analisi delle cause e dei fenomeni che portano a rilevanti perdite di glicole (TEG) in impianti di disidratazione del gas naturale operanti con elevate concentrazioni di CO2 e H2S nel gas di processo. Le perdite, in relazione alle diverse condizioni operative e concentrazioni dei gas menzionati, possono arrivare a raggiungere valori pari a 3-4 volte l'entità attesa, con punte che raggiungono 10 volte tali valori. Il lavoro di tesi è stato focalizzato su un impianto attualmente in esercizio, situato in Arabia Saudita. L’attività è stata condotta presso la Comart di Ravenna, azienda specializzata nella progettazione di impianti nel settore Oil&Gas. Inizialmente sono state studiate le caratteristiche di un impianto di disidratazione di gas naturale mediante assorbimento con glicole trietilenico. Dopo l’analisi delle possibili fonti di perdita, la colonna di alimentazione del ribollitore (Still Column) e il relativo condensatore, sulla base dei dati operativi degli impianti, sembra essere il punto su cui si concentrano le perdite. Vengono presentati i dettagli costruttivi di tale colonna al fine di determinarne i possibili malfunzionamenti. Scopo della tesi sarà l'identificazione, partendo dall'attuale configurazione dell’impianto, delle cause che portano a tali valori di perdite e l'individuazione di una configurazione colonna/condensatore (con eventuali altri equipment necessari) in grado di minimizzare le perdite contenendo al minimo i costi aggiuntivi della soluzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si pone l'obiettivo di mappare le attività all'interno del magazzino di un operatore logistico, dalla consegna della merce da parte dei committenti, al flusso di ritorno dei pallet vuoti dai punti di consegna, attraverso la modellazione e la simulazione in linguaggio Arena. Dopo aver analizzato il ruolo e la posizione occupata da un provider logistico lungo la catena distributiva, è esposto il caso preso in considerazione, mediante lo studio dei committenti e dei punti di consegna serviti. Viene poi mappato nel dettaglio il processo di gestione all'interno del magazzino e approfonditi due aspetti principali: i costi di gestione e trasporto a carico dell'operatore e la gestione dei mezzi utilizzati per effettuare le consegne. Chiarito il sistema reale, si passa al modello in Arena. Al termine della simulazione, svoltasi in un adeguato orizzonte temporale, dall'analisi dei risultati sarà possibile trarre delle conclusioni al fine di migliorare l'efficienza del processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I fenomeni di globalizzazione in atto hanno radicalmente modificato il consumo e la distribuzione dei prodotti agroalimentari e dilatato le distanze tra l’origine delle materie prime e consumo finale. Obiettivo del progetto interuniversitario "Food Supply Chain" è studiare le condizioni di trasporto di prodotti agroalimentari. Una delle attività principali è tracciare ed analizzare i fattori critici di spedizioni dal momento in cui i prodotti lasciano lo stabilimento produttivo in Italia fino ai consumatori situati in EU o extra-EU. La tesi si inserisce all’interno di questo progetto e descrive la realizzazione di due Piattaforme in ambiente LabVIEW per la consultazione e la simulazione dei viaggi logistici, le cui caratteristiche sono conservate e organizzate in appositi database. La "Piattaforma LabVIEW per la consultazione a analisi" permette di consultare il database attraverso interrogazioni multiple, estrarre le informazioni più significative, riprodurre le spedizioni in apposite interfacce e produrre dei report riassuntivi per comunicazioni alle imprese La "Piattaforma LabVIEW per la simulazione in camera climatica" rappresenta il sistema di controllo attraverso cui gestire la simulazione dei singoli viaggi in camera climatica, realizzata nel Laboratorio MECCANICA del DIN della Scuola di Ingegneria e Architettura dell’Università di Bologna. Si potranno così valutare e comparare tra loro soluzioni alternative rispetto ad una medesima catena logistica in termini di packaging, imballaggio e protezioni supplementari della spedizione. Infine si potranno confrontare rotte commerciali differenti relative allo stesso prodotto. I risultati ottenuti in camera climatica costituiranno la base per le successive analisi biochimiche sui prodotti e valutazione finale della sostenibilità dell’intera catena logistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato verte sulla simulazione della gestione dei materiali dell’azienda Robopac. Il modello esposto è stato creato tramite il software Arena, il quale permette la riproduzione di una struttura aziendale reale ed è, per questo, uno strumento validissimo per esaminare situazioni critiche, nonché per confrontare alternative progettuali e validarle. Nello specifico, in tale tesi ci si propone di verificare, attraverso un’attenta analisi, come l’azienda Robopac gestisca i materiali nel suo percorso di elaborazione e trasformazione. Per gestione dei materiali si intende il coordinamento degli arrivi, il controllo sulle materie, il trasporto di tali materiali nei magazzini appositi e il successivo spostamento in linea. Questa indagine permetterà di valutare l’efficienza e l’utilizzo delle risorse, le tempistiche delle movimentazioni e l’eventuale creazione di code, così da cercare soluzioni che potrebbero migliorare e ottimizzare le operazioni. Il modello creato con Arena considera i sei codici-prodotto più rappresentativi e rende possibile una riproduzione conforme a ciò che è stato osservato. Inoltre sono analizzati i report forniti automaticamente da tale software e valutati l’utilizzo delle risorse e le giacenze a magazzino. Sarebbe interessante ampliare la simulazione esposta, prendendo in considerazione l’intero numero di codici prodotti, così da poter analizzare la totale gestione dei materiali e considerare eventuali differenze o scostamenti rispetto a quanto svolto in questa tesi. Un ulteriore ampliamento altrettanto valido potrebbe essere quello di coniugare la simulazione della gestione dei materiali con il modello della linea produttiva principale già realizzato con Arena. Ciò permetterebbe una più completa visione dell’azienda e l’indagine della realtà imprenditoriale diventerebbe più ampia, approfondita e dettagliata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Nel solenne trasporto delle generi di Pio VI. S.P. da calenza a Roma : ode italiana del nobil Sig. conte Francesco Pimbiolo degli Engelfreddi, e traduzione in versi Latini del Sig. ab. d. Gio. Prosdocimo Dr. Zabeo"--P. [9]-23.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale della politica di sicurezza alimentare è quello di garantire la salute dei consumatori attraverso regole e protocolli di sicurezza specifici. Al fine di rispondere ai requisiti di sicurezza alimentare e standardizzazione della qualità, nel 2002 il Parlamento Europeo e il Consiglio dell'UE (Regolamento (CE) 178/2002 (CE, 2002)), hanno cercato di uniformare concetti, principi e procedure in modo da fornire una base comune in materia di disciplina degli alimenti e mangimi provenienti da Stati membri a livello comunitario. La formalizzazione di regole e protocolli di standardizzazione dovrebbe però passare attraverso una più dettagliata e accurata comprensione ed armonizzazione delle proprietà globali (macroscopiche), pseudo-locali (mesoscopiche), ed eventualmente, locali (microscopiche) dei prodotti alimentari. L'obiettivo principale di questa tesi di dottorato è di illustrare come le tecniche computazionali possano rappresentare un valido supporto per l'analisi e ciò tramite (i) l’applicazione di protocolli e (ii) miglioramento delle tecniche ampiamente applicate. Una dimostrazione diretta delle potenzialità già offerte dagli approcci computazionali viene offerta nel primo lavoro in cui un virtual screening basato su docking è stato applicato al fine di valutare la preliminare xeno-androgenicità di alcuni contaminanti alimentari. Il secondo e terzo lavoro riguardano lo sviluppo e la convalida di nuovi descrittori chimico-fisici in un contesto 3D-QSAR. Denominata HyPhar (Hydrophobic Pharmacophore), la nuova metodologia così messa a punto è stata usata per esplorare il tema della selettività tra bersagli molecolari strutturalmente correlati e ha così dimostrato di possedere i necessari requisiti di applicabilità e adattabilità in un contesto alimentare. Nel complesso, i risultati ci permettono di essere fiduciosi nel potenziale impatto che le tecniche in silico potranno avere nella identificazione e chiarificazione di eventi molecolari implicati negli aspetti tossicologici e nutrizionali degli alimenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prima parte di questo lavoro di tesi tratta dell’interazione tra un bacino di laminazione e il sottostante acquifero: è in fase di progetto, infatti, la costruzione di una cassa di espansione sul torrente Baganza, a monte della città di Parma. L’obiettivo di tale intervento è di ridurre il rischio di esondazione immagazzinando temporaneamente, in un serbatoio artificiale, la parte più pericolosa del volume di piena che verrebbe rilasciata successivamente con portate che possono essere agevolmente contenute nel tratto cittadino del torrente. L’acquifero è stato preliminarmente indagato e monitorato permettendone la caratterizzazione litostratigrafica. La stratigrafia si può riassumere in una sequenza di strati ghiaioso-sabbiosi con successione di lenti d’argilla più o meno spesse e continue, distinguendo due acquiferi differenti (uno freatico ed uno confinato). Nel presente studio si fa riferimento al solo acquifero superficiale che è stato modellato numericamente, alle differenze finite, per mezzo del software MODFLOW_2005. L'obiettivo del presente lavoro è di rappresentare il sistema acquifero nelle condizioni attuali (in assenza di alcuna opera) e di progetto. La calibrazione è stata condotta in condizioni stazionarie utilizzando i livelli piezometrici raccolti nei punti d’osservazione durante la primavera del 2013. I valori di conducibilità idraulica sono stati stimati per mezzo di un approccio geostatistico Bayesiano. Il codice utilizzato per la stima è il bgaPEST, un software gratuito per la soluzione di problemi inversi fortemente parametrizzati, sviluppato sulla base dei protocolli del software PEST. La metodologia inversa stima il campo di conducibilità idraulica combinando osservazioni sullo stato del sistema (livelli piezometrici nel caso in esame) e informazioni a-priori sulla struttura dei parametri incogniti. La procedura inversa richiede il calcolo della sensitività di ciascuna osservazione a ciascuno dei parametri stimati; questa è stata valutata in maniera efficiente facendo ricorso ad una formulazione agli stati aggiunti del codice in avanti MODFLOW_2005_Adjoint. I risultati della metodologia sono coerenti con la natura alluvionale dell'acquifero indagato e con le informazioni raccolte nei punti di osservazione. Il modello calibrato può quindi essere utilizzato come supporto alla progettazione e gestione dell’opera di laminazione. La seconda parte di questa tesi tratta l'analisi delle sollecitazioni indotte dai percorsi di flusso preferenziali causati da fenomeni di piping all’interno dei rilevati arginali. Tali percorsi preferenziali possono essere dovuti alla presenza di gallerie scavate da animali selvatici. Questo studio è stato ispirato dal crollo del rilevato arginale del Fiume Secchia (Modena), che si è verificato in gennaio 2014 a seguito di un evento alluvionale, durante il quale il livello dell'acqua non ha mai raggiunto la sommità arginale. La commissione scientifica, la cui relazione finale fornisce i dati utilizzati per questo studio, ha attribuito, con molta probabilità, il crollo del rilevato alla presenza di tane di animali. Con lo scopo di analizzare il comportamento del rilevato in condizioni integre e in condizioni modificate dall'esistenza di un tunnel che attraversa il manufatto arginale, è stato realizzato un modello numerico 3D dell’argine mediante i noti software Femwater e Feflow. I modelli descrivono le infiltrazioni all'interno del rilevato considerando il terreno in entrambe le porzioni sature ed insature, adottando la tecnica agli elementi finiti. La tana è stata rappresentata da elementi con elevata permeabilità e porosità, i cui valori sono stati modificati al fine di valutare le diverse influenze sui flussi e sui contenuti idrici. Per valutare se le situazioni analizzate presentino o meno il verificarsi del fenomeno di erosione, sono stati calcolati i valori del fattore di sicurezza. Questo è stato valutato in differenti modi, tra cui quello recentemente proposto da Richards e Reddy (2014), che si riferisce al criterio di energia cinetica critica. In ultima analisi è stato utilizzato il modello di Bonelli (2007) per calcolare il tempo di erosione ed il tempo rimanente al collasso del rilevato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Through numerous technological advances in recent years along with the popularization of computer devices, the company is moving towards a paradigm “always connected”. Computer networks are everywhere and the advent of IPv6 paves the way for the explosion of the Internet of Things. This concept enables the sharing of data between computing machines and objects of day-to-day. One of the areas placed under Internet of Things are the Vehicular Networks. However, the information generated individually for a vehicle has no large amount and does not contribute to an improvement in transit, once information has been isolated. This proposal presents the Infostructure, a system that has to facilitate the efforts and reduce costs for development of applications context-aware to high-level semantic for the scenario of Internet of Things, which allows you to manage, store and combine the data in order to generate broader context. To this end we present a reference architecture, which aims to show the major components of the Infostructure. Soon after a prototype is presented which is used to validate our work reaches the level of contextualization desired high level semantic as well as a performance evaluation, which aims to evaluate the behavior of the subsystem responsible for managing contextual information on a large amount of data. After statistical analysis is performed with the results obtained in the evaluation. Finally, the conclusions of the work and some problems such as no assurance as to the integrity of the sensory data coming Infostructure, and future work that takes into account the implementation of other modules so that we can conduct tests in real environments are presented.