647 resultados para RETE TRASPORTOLIVELLO DI SERVIZIOARMAMY CAPACITY MARLOWCONTROLLO DEL TRAFFICO
Resumo:
Il rilevamento di intrusioni nel contesto delle pratiche di Network Security Monitoring è il processo attraverso cui, passando per la raccolta e l'analisi di dati prodotti da una o più fonti di varia natura, (p.e. copie del traffico di rete, copie dei log degli applicativi/servizi, etc..) vengono identificati, correlati e analizzati eventi di sicurezza con l'obiettivo di rilevare potenziali tenativi di compromissione al fine di proteggere l'asset tecnologico all'interno di una data infrastruttura di rete. Questo processo è il prodotto di una combinazione di hardware, software e fattore umano. Spetta a quest'ultimo nello specifico il compito più arduo, ovvero quello di restare al passo con una realtà in continua crescita ed estremamente dinamica: il crimine informatico. Spetta all'analista filtrare e analizzare le informazioni raccolte in merito per contestualizzarle successivamente all'interno della realta che intende proteggere, con il fine ultimo di arricchire e perfezionare le logiche di rilevamento implementate sui sistemi utilizzati. È necessario comprendere come il mantenimento e l'aggiornamento di questi sistemi sia un'attività che segue l'evolversi delle tecnologie e delle strategie di attacco. Un suo svolgimento efficacie ed efficiente risulta di primaria importanza per consentire agli analisti di focalizzare le proprie risorse sulle attività di investigazione di eventi di sicurezza, ricerca e aggiornamento delle logiche di rilevamento, minimizzando quelle ripetitive, "time consuming", e potenzialmente automatizzabili. Questa tesi ha come obiettivo quello di presentare un possibile approccio ad una gestione automatizzata e centralizzata di sistemi per il rilevamento delle intrusioni, ponendo particolare attenzione alle tecnologie IDS presenti sul panorama open source oltre a rapportare tra loro gli aspetti di scalabilità e personalizzazione che ci si trova ad affrontare quando la gestione viene estesa ad infrastrutture di rete eterogenee e distribuite.
Resumo:
La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.
Resumo:
Nell’attuale contesto competitivo, sempre più alla ricerca di un incontro tra esigenze di natura economica e logiche di Sostenibilità Ambientale e di Economia Circolare (E.C.), questo elaborato si pone l’obiettivo di presentare un modello matematico, formulato per la simulazione e la conseguente ottimizzazione di una rete logistica gestita con logiche di Simbiosi Industriale (S.I.). Lo scopo di tale modello è fungere da supporto all’adozione di pratiche di S.I. in un determinato contesto territoriale, attraverso l’individuazione delle sinergie ottime, tra quelle considerate possibili, in grado di ridurre la produzione di rifiuti, a favore del riutilizzo di sottoprodotti e materie prime seconde, minimizzando il costo totale del sistema. Preliminarmente alla presentazione del modello, sarà descritto il contesto in cui la S.I. si colloca e i suoi collegamenti con i concetti di Ecologia Industriale (E.I.) ed E.C., verranno distinti i vari modelli esistenti di S.I. ed i casi di successo presenti nel contesto italiano ed europeo, e sarà illustrato l’attuale inquadramento normativo. In seguito, verranno descritti nel dettaglio il modello matematico e un caso studio, dimensionato allo scopo di validare il modello stesso. Fase particolarmente critica del lavoro è risultata essere quella relativa alla raccolta dati da inserire nel caso studio, in quanto informazioni sensibili e di conseguenza non facilmente reperibili. I risultati ottenuti dimostrano come possa risultare conveniente, dal punto di vista economico, l’adozione di pratiche di S.I. negli scambi tra realtà industriali, e in che modo tale convenienza muti al variare delle condizioni economiche al contorno.
Resumo:
Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.
Resumo:
Nella presente tesi viene affrontato il comportamento di materiali granulari sotto carico dinamico. In particolare, viene presentata la sperimentazione di laboratorio seguita presso il Nottingham Transportation Engineering Centre dell'Università di Nottingham, la costruzione del box test e le prove dinamiche eseguite sul materiale granulare rinforzato e non.
Resumo:
Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.
Resumo:
Il lavoro svolto consiste inizialmente in una presentazione generale della situazione attuale della viabilità sul territorio casalecchiese. Su di esso si affronteranno un buon numero di problematiche che rendono le strade, presenti sul territorio, a rischio di incidentalità. Inerente a questo si è analizzato i dati degli incidenti dell’ultimo anno avvenuti sul territorio attraverso il lavoro di raccolta dati effettuato dall’Osservatorio dell’incidentalità stradale della Provincia di Bologna. Dai dati ottenuti e dai rilevamenti effettuati nell’arco di questi quattro mesi passati nell’Ufficio Traffico del comune di Casalecchio di Reno, sulle strade comunali si è riscontrato una serie di situazione a rischio che ho presentato in un capitolo apposito e si è discusso anche le relative soluzioni di intervento. Tali situazioni comprendono sia strade leggermente attempate che necessitano di interventi di sistemazione, sia intersezioni a raso di vario tipo che presentano un ampio ventaglio di problematiche per la sicurezza stradale, sia attraversamenti pedonali non a norma, con situazioni al limite della sicurezza che necessitano di immediati interventi di sistemazione e messa in sicurezza. In particolare si è approfondito lo studio degli attraversamenti pedonali, presentando tutti i possibili scenari che questa particolare situazione può avere, elencando tutti i possibili interventi che si possono adottare al fine di ottimizzare la sicurezza e ridurre al minimo i rischi, ovvero ridurre il più possibile la probabilità che un incidente accada e il danno subito dal pedone. Infine si è studiato nello specifico una situazione di pericolo, fra quelle presentate, che probabilmente rappresenta una delle situazioni più a rischio presenti sul territorio casalecchiese: un attraversamento pedonale sulla via Porrettana, nei pressi del parco Rodari, situato all’incirca a mezzavia fra l’incrocio tra via Porrettana e via Calzavecchio, e la rotonda Biagi. Tale attraversamento pedonale, in alcuni orari della giornata assai utilizzato dai residenti del limitrofo quartiere Calzavecchio che raggiungono il parco Rodari e nel giorno di mercoledì mattina il mercato rionale situato accanto al parco, presenta flussi pedonali abbastanza corposi ed è situato su una strada caratterizzata da un elevato flusso veicolare. Dopo aver presentato in maniera approfondita la situazione attuale di tale attraversamento pedonale, si sono infine proposte due diverse soluzione di intervento: una da poter essere attuata nell’immediato, l’altra subito dopo che si ottenga la declassazione di via Porrettana, cioè all’incirca fra cinque o sei anni. Si è allegato, infine, come appendice, la Normativa che si è utilizzata al fine di progettare tali soluzioni.
Resumo:
Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.
Resumo:
Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità e una sostanziale disomogeneità prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità di ottimizzare l'allocazione delle unità operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.
Resumo:
I terreni di Treporti, nella laguna di Venezia, sono caratterizzati da una fitta alternanza di strati con caratteristiche di compressibilità fortemente variabili, pertanto risulta alquanto complessa la determinazione e la scelta di parametri appropriati per la progettazione. La costruzione del terrapieno sperimentale, ed il contemporaneo impiego dell'assestimetro a basi multiple, ha permesso di misurare il comportamento deformativo del terreno in sito e le analisi retrospettive hanno simulato, in base a parametri di tentativo, il comportamento nel tempo dei terreni di fondazione. L'analisi a posteriori delle deformazioni è stata confrontata con le misure effettuate nel corso degli anni precedenti la fase di scarico, mentre oltre questa fase è stata eseguita una previsione confrontata con le tre misure eseguite dopo la fase di scarico, ottenendo in entrambi i casi un buon accordo tra simulazioni e misure. L’aderenza quasi perfetta ottenuta tra le curve ε-t calcolate e le corrispondenti curve ε-t sperimentali, fa ritenere che tutti i parametri geotecnici ottenuti dal modello, rispecchino con buona approssimazione quelli realmente mobilitati dai 40 m di sottosuolo interessati dal carico. Pertanto anche i risultati ottenuti in ordine all'influenza della consolidazione secondaria sugli abbassamenti totali, debbono ritenersi con buona approssimazione vicini al comportamento reale. Il modello è anche in grado di descrivere molto bene i cedimenti dei diversi strati di terreno e quello del piano di posa.
Resumo:
Il Lavoro si inserisce nel quadro complesso del settore Energy & Utilities e si propone l’obiettivo di analizzare l’attuale mercato dell’energia per individuarne i driver al cambiamento e presentare un innovativo modello di business per le aziende di vendita di energia, con lo scopo di recuperare efficienza nella gestione del Cliente finale, cercando di quantificarne i vantaggi potenziali. L’attività di studio e progettuale è stata svolta nell’ambito di un periodo di tirocinio formativo della durata di sei mesi, effettuato presso Engineering Ingegneria Informatica S.p.A., in particolare nella sede di viale Masini di Bologna, a seguito della candidatura autonoma dello studente e del suo immediato inserimento nei processi di business della divisione Utilities dell’azienda. Il Lavoro si suddivide in 9 capitoli: dopo una breve introduzione sul settore Energy&Utilities, nei primi quattro capitoli sono descritte le filiere produttive dei principali servizi, i principali attori del mercato e gli aspetti normativi e tariffari che caratterizzano l’intero settore, valutando in particolare la formazione del prezzo del gas e dell’energia elettrica. I capitoli cinque e sei descrivono invece le principali tendenze, le strategie competitive in atto nel mercato delle Utilities e l’importanza del Cliente, in un’ottica di CRM che segue i dettami del modello “Customer Centric”. Gli ultimi capitoli mostrano invece, dopo una breve presentazione dell’azienda in cui lo studente ha svolto l’attività, l’intero lavoro di analisi realizzato, input del modello di business a chiusura del Lavoro, volto a quantificare gli impatti del processo di liberalizzazione che ha radicalmente modificato il settore delle Utilities negli ultimi anni, valutando a proposito la profittabilità per un cliente medio in base ad un’opportuna pre-analisi di segmentazione. Il modello di business che occupa l’ultimo capitolo costituisce una soluzione originale e innovativa per incrementare tale profittabilità.
Resumo:
Il cambiamento organizzativo costituisce oggi un elemento fondamentale per la sopravvivenza dell'impresa. Un approccio al cambiamento è costituito dal Total Quality Management (o Qualità Totale). La Qualità Totale pone il cliente e la sua soddisfazione al centro delle decisioni aziendali. Ciò presuppone un coinvolgimento di tutto il personale dell'impresa nell'attività di miglioramento continuo. Un sistema di gestione della Qualità Totale è rappresentato dalla Lean Manufacturing. Infatti, i punti essenziali della Lean Manufacturing sono il focus sul cliente, l'eliminazione degli sprechi ed il miglioramento continuo. L'obiettivo è la creazione di valore per il cliente e, quindi, l'eliminazione di ogni forma di spreco. E' necessario adottare un'organizzazione a flusso e controllare continuamente il valore del flusso nell'ottica del miglioramento continuo. Il Lead Time costituisce l'indicatore principale della Lean Manufacturing.I risultati principali della Lean Manufacturing sono: aumento della produttività, miglioramento della qualità del prodotto, riduzione dei lead time e minimizzazione delle scorte ed aumento della rotazione. Tutto ciò è applicato ad un caso aziendale reale. Il caso si compone di un'analisi dei processi di supporto, dell'analisi del capitale circolante (analisi dello stock e del flusso attuale e futuro) e dell'analisi del sistema di trasporto, con l'obiettivo di ridurre il più possibile il lead time totale del sistema.
Resumo:
Il proliferare di dispositivi di elaborazione e comunicazione mobili (telefoni cellulari, computer portatili, PDA, wearable devices, personal digital assistant) sta guidando un cambiamento rivoluzionario nella nostra società dell'informazione. Si sta migrando dall'era dei Personal Computer all'era dell'Ubiquitous Computing, in cui un utente utilizza, parallelamente, svariati dispositivi elettronici attraverso cui può accedere a tutte le informazioni, ovunque e quantunque queste gli si rivelino necessarie. In questo scenario, anche le mappe digitali stanno diventando sempre più parte delle nostre attività quotidiane; esse trasmettono informazioni vitali per una pletora di applicazioni che acquistano maggior valore grazie alla localizzazione, come Yelp, Flickr, Facebook, Google Maps o semplicemente le ricerche web geo-localizzate. Gli utenti di PDA e Smartphone dipendono sempre più dai GPS e dai Location Based Services (LBS) per la navigazione, sia automobilistica che a piedi. Gli stessi servizi di mappe stanno inoltre evolvendo la loro natura da uni-direzionale a bi-direzionale; la topologia stradale è arricchita da informazioni dinamiche, come traffico in tempo reale e contenuti creati dagli utenti. Le mappe digitali aggiornabili dinamicamente sono sul punto di diventare un saldo trampolino di lancio per i sistemi mobili ad alta dinamicità ed interattività, che poggiando su poche informazioni fornite dagli utenti, porteranno una moltitudine di applicazioni innovative ad un'enorme base di consumatori. I futuri sistemi di navigazione per esempio, potranno utilizzare informazioni estese su semafori, presenza di stop ed informazioni sul traffico per effettuare una ottimizzazione del percorso che valuti simultaneamente fattori come l'impronta al carbonio rilasciata, il tempo di viaggio effettivamente necessario e l'impatto della scelta sul traffico locale. In questo progetto si mostra come i dati GPS raccolti da dispositivi fissi e mobili possano essere usati per estendere le mappe digitali con la locazione dei segnali di stop, dei semafori e delle relative temporizzazioni. Queste informazioni sono infatti oggi rare e locali ad ogni singola municipalità, il che ne rende praticamente impossibile il pieno reperimento. Si presenta quindi un algoritmo che estrae utili informazioni topologiche da agglomerati di tracciati gps, mostrando inoltre che anche un esiguo numero di veicoli equipaggiati con la strumentazione necessaria sono sufficienti per abilitare l'estensione delle mappe digitali con nuovi attributi. Infine, si mostrerà come l'algoritmo sia in grado di lavorare anche con dati mancanti, ottenendo ottimi risultati e mostrandosi flessibile ed adatto all'integrazione in sistemi reali.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.