742 resultados para Cloud Computing Modelli di Business


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il sistema viabile rappresenta una parte fondamentale nella dinamica dei trasporti al servizio della mobilità di trasporti e merci. La mobilità, ha fatto registrare ritmi di crescita sostenuti nel corso degli anni. Le trasformazioni sociali, del mercato del lavoro, lo sviluppo produttivo e commerciale, la posizione baricentrica tra le province jonca salentina e brindisina fanno di Manduria, una realtà dove è necessario prestare attenzione al sistema dei trasporti. Tuttavia la rete statale di vecchio stampo che risulta utilizzata, soprattutto da quote di mobilità interprovinciale per questioni di economicità del percorso e dal momento che manca una rete viaria ordinaria funzionale e scorrevole che colleghi in modo capillare il territorio fanno si che la Strada Statale 7ter risulti congestionata in maniera diffusa. La Superstrada di nuova costruzione sarebbe potuta essere un importante arteria stradale allacciandosi alla SS Taranto Brindisi Lecce collegando il sud della provincia Jonica in modo capillare ai comuni della provincia Taranto e Lecce, la quale non è stata ultimata ed avrebbe rappresentato una valida alternativa alla statale esistenti. Oltre a favorire i collegamenti tra il territorio jonico, brindisino e quello salentino, tale intervento sarebbe stato necessario per ridurre la componente di traffico di attraversamento di una serie di centri urbani, tra cui il Comune di Manduria. In questa tesi, sulla base dei dati raccolti dall’ultimo censimento nell’ambito provinciale e del Comune di Manduria, verrà implementato il funzionamento del Piano del Traffico stradale del Comune di Manduria e verranno condotte delle simulazioni, con l’ausilio del software di pianificazione di sistemi di trasporto stradale Omnitrans, versione demo, scaricabile gratuitamente dal sito www.omnitrans-international.com. Si ricercheranno stime sul funzionamento della rete, valutando la congestione del traffico ed eventualmente in termini di aumento della sicurezza e riduzione dell’inquinamento atmosferico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto della presente dissertazione è inerente aspetti affidabilistici e diagnostici dei componenti delle reti elettriche. Sono stati condotti studi sul ruolo svolto dai parametri presenti nei modelli affidabilistici utilizzati in presenza di regimi distorti. I risultati ottenuti nel corso della ricerca, indicano chiaramente come anche il fattore efficace Krms e, soprattutto, il fattore di forma, Kf, sotto certe condizioni, possano avere effetti considerevoli sulla degradazione degli isolanti (a volte con contributi perfino maggiori di quello dato dal ben noto fattore di picco, Kp, considerato predominante). Viene inoltre riportata un’indagine sviluppata sui principali Dispositivi Automatizzati per il Controllo degli Isolamenti (AIMS), attualmente disponibili sul mercato. Sono illustrati e discussi innovativi modelli di rischio integrati, sviluppati per integrare informazioni fornite dall’analisi affidabilistica tradizionale con misure di proprietà diagnostiche, acquisite grazie ad un monitoraggio costante dei componenti in servizio. L’impiego di tali modelli permetterebbe di ottenere una manutenzione di tipo affidabilistico-diagnostico, basata sull’effettiva condizione del componente in esame (manutenzione tipo CBM), piuttosto che su scadenze temporali fissate a priori (manutenzione di tipo TBM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tema della Logistica Urbana è un argomento complesso che coinvolge diverse discipline. Infatti, non è possibile affrontare la distribuzione delle merci da un solo punto di vista. Da un lato, infatti, manifesta l’esigenza della città e della società in generale di migliorare la qualità della vita anche attraverso azioni di contenimento del traffico, dell’inquinamento e degli sprechi energetici. A questo riguardo, è utile ricordare che il trasporto merci su gomma costituisce uno dei maggiori fattori di impatto su ambiente, sicurezza stradale e congestione della viabilità urbana. Dall’altro lato vi sono le esigenze di sviluppo economico e di crescita del territorio dalle quali non è possibile prescindere. In questa chiave, le applicazioni inerenti la logistica urbana si rivolgono alla ricerca di soluzioni bilanciate che possano arrecare benefici sociali ed economici al territorio anche attraverso progetti concertati tra i diversi attori coinvolti. Alla base di tali proposte di pratiche e progetti, si pone il concetto di esternalità inteso come l’insieme dei costi esterni sostenuti dalla società imputabili al trasporto, in particolare al trasporto merci su gomma. La valutazione di questi costi, che rappresentano spesso una misurazione qualitativa, è un argomento delicato in quanto, come è facile immaginare, non può essere frutto di misure dirette, ma deve essere dedotto attraverso meccanismi inferenziali. Tuttavia una corretta definizione delle esternalità definisce un importante punto di partenza per qualsiasi approccio al problema della Logistica Urbana. Tra gli altri fattori determinanti che sono stati esplorati con maggiore dettaglio nel testo integrale della tesi, va qui accennata l’importanza assunta dal cosiddetto Supply Chain Management nell’attuale assetto organizzativo industriale. Da esso dipendono approvvigionamenti di materie prime e consegne dei prodotti finiti, ma non solo. Il sistema stesso della distribuzione fa oggi parte di quei servizi che si integrano con la qualità del prodotto e dell’immagine della Azienda. L’importanza di questo settore è accentuata dal fatto che le evoluzioni del commercio e l’appiattimento dei differenziali tra i sistemi di produzione hanno portato agli estremi la competizione. In questa ottica, minimi vantaggi in termini di servizio e di qualità si traducono in enormi vantaggi in termini di competitività e di acquisizione di mercato. A questo si aggiunge una nuova logica di taglio dei costi che porta a ridurre le giacenze di magazzino accorciando la pipeline di produzione ai minimi termini in tutte le fasi di filiera. Naturalmente questo si traduce, al punto vendita in una quasi totale assenza di magazzino. Tecnicamente, il nuovo modello di approvvigionamento viene chiamato just-in-time. La ricerca che è stata sviluppata in questi tre anni di Dottorato, sotto la supervisione del Prof. Piero Secondini, ha portato ad un approfondimento di questi aspetti in una chiave di lettura ad ampio spettro. La ricerca si è quindi articolata in 5 fasi: 1. Ricognizione della letteratura italiana e straniera in materia di logistica e di logistica urbana; 2. Studio delle pratiche nazionali ed europee 3. Analisi delle esperienze realizzate e delle problematiche operative legate ai progetti sostenuti dalla Regione Emilia Romagna 4. Il caso di studio di Reggio Emilia e redazione di più proposte progettuali 5. Valutazione dei risultati e conclusioni Come prima cosa si è quindi studiata la letteratura in materia di Logistica Urbana a livello nazionale. Data la relativamente recente datazione dei primi approcci nazionali ed europei al problema, non erano presenti molti testi in lingua italiana. Per contro, la letteratura straniera si riferisce generalmente a sistemi urbani di dimensione e configurazione non confrontabili con le realtà nazionali. Ad esempio, una delle nazioni che hanno affrontato per prime tale tematica e sviluppato un certo numero di soluzioni è stata il Giappone. Naturalmente, città come Tokyo e Kyoto sono notevolmente diverse dalle città europee ed hanno necessità ed esigenze assai diverse. Pertanto, soluzioni tecnologiche e organizzative applicate in questi contesti sono per la maggior parte inattuabili nei contesti del vecchio continente. Le fonti che hanno costituito maggiore riferimento per lo sviluppo del costrutto teorico della tesi, quindi, sono state i saggi che la Regione Emilia Romagna ha prodotto in occasione dello sviluppo del progetto City Ports di cui la Regione stessa era coordinatore di numerosi partners nazionali ed europei. In ragione di questo progetto di ricerca internazionale, l’Emilia Romagna ha incluso il trattamento della logistica delle merci negli “Accordi di Programma per il miglioramento della qualità dell’aria” con le province ed i capoluoghi. In Questo modo si è posta l’attenzione sulla sensibilizzazione delle Pubbliche Amministrazioni locali verso la mobilità sostenibile anche nell’ambito di distribuzione urbana delle merci. Si noti infatti che l’impatto sulle esternalità dei veicoli leggeri per il trasporto merci, quelli cioè che si occupano del cosiddetto “ultimo miglio” sono di due ordini di grandezza superiori rispetto a quelli dei veicoli passeggeri. Nella seconda fase, la partecipazione a convegni di ambito regionale e nazionale ha permesso di arricchire le conoscenze delle best-practice attuate in Italia per lo sviluppo di strumenti finalizzati ad condividere i costi esterni della mobilità delle merci con gli operatori logistici. In questi contesti è stato possibile verificare la disponibilità di tre linee di azione sulle quali, all’interno del testo della tesi si farà riferimento molto spesso: - linea tecnologica; - linea amministrativa; - linea economico/finanziaria. Nel discutere di questa tematica, all’interno di questi contesti misti in cui partecipavano esponenti della cultura accademica, delle pubbliche amministrazioni e degli operatori, ci si è potuti confrontare con la complessità che il tema assume. La terza fase ha costituito la preparazione fondamentale allo studio del caso di studio. Come detto sopra, la Regione Emilia Romagna, all’interno degli Accordi di Programma con le Province, ha deliberato lo stanziamento di co-finanziamenti per lo sviluppo di progetti, integrati con le pratiche della mobilità, inerenti la distribuzione delle merci in città. Inizialmente, per tutti i capoluoghi di provincia, la misura 5.2 degli A.d.P. prevedeva la costruzione di un Centro di Distribuzione Urbana e l’individuazione di un gestore dei servizi resi dallo stesso. Successive considerazioni hanno poi portato a modifiche della misura lasciando una maggiore elasticità alle amministrazioni locali. Tramite una esperienza di ricerca parallela e compatibile con quella del Dottorato finanziata da un assegno di ricerca sostenuto dall’Azienda Consorziale Trasporti di Reggio Emilia, si è potuto partecipare a riunioni e seminari presentati dalla Regione Emilia Romagna in cui si è potuto prendere conoscenza delle proposte progettuali di tutte le province. L’esperienza di Reggio Emilia costituisce il caso di studio della tesi di Dottorato. Le molteplici problematiche che si sono affrontate si sono protratte per tempi lunghi che hanno visto anche modifiche consistenti nell’assetto della giunta e del consiglio comunali. Il fatto ha evidenziato l’ennesimo aspetto problematico legato al mantenimento del patrimonio conoscitivo acquisito, delle metodiche adottate e di mantenimento della coerenza dell’impostazione – in termini di finalità ed obiettivi – da parte dell’Amministrazione Pubblica. Essendo numerosi gli attori coinvolti, in un progetto di logistica urbana è determinante per la realizzazione e la riuscita del progetto che ogni fattore sia allineato e ben informato dell’evoluzione del progetto. In termini di programmazione economica e di pianificazione degli interventi, inoltre, la pubblica amministrazione deve essere estremamente coordinata internamente. Naturalmente, questi sono fattori determinanti per ogni progetto che riguarda le trasformazioni urbane e lo sviluppo delle città. In particolare, i diversi settori (assessorati) coinvolti su questa tematica, fanno o possno fare entrare in situazioni critiche e rischiose la solidità politica dello schieramento di maggioranza. Basti pensare che la distribuzione delle merci in città coinvolge gli assessorati della mobilità, del commercio, del centro storico, dell’ambiente, delle attività produttive. In funzione poi delle filiere che si ritiene di coinvolgere, anche la salute e la sicurezza posso partecipare al tavolo in quanto coinvolte rispettivamente nella distribuzione delle categorie merceologiche dei farmaci e nella security dei valori e della safety dei trasporti. L’esperienza di Reggio Emilia è stata una opportunità preziosissima da molteplici punti di vista. Innanzitutto ha dato modo di affrontare in termini pratici il problema, di constatare le difficoltà obiettive, ad esempio nella concertazione tra gli attori coinvolti, di verificare gli aspetti convergenti su questo tema. Non ultimo in termini di importanza, la relazione tra la sostenibilità economica del progetto in relazione alle esigenze degli operatori commerciali e produttivi che ne configurano gli spazi di azione. Le conclusioni del lavoro sono molteplici. Da quelle già accennate relative alla individuazione delle criticità e dei rischi a quelle dei punti di forza delle diverse soluzioni. Si sono affrontate, all’interno del testo, le problematiche più evidenti cercando di darne una lettura costruttiva. Si sono evidenziate anche le situazioni da evitare nel percorso di concertazione e si è proposto, in tal proposito, un assetto organizzativo efficiente. Si è presentato inoltre un modello di costruzione del progetto sulla base anche di una valutazione economica dei risultati per quanto riguarda il Business Plan del gestore in rapporto con gli investimenti della P.A.. Si sono descritti diversi modelli di ordinanza comunale per la regolamentazione della circolazione dei mezzi leggeri per la distribuzione delle merci in centro storico con una valutazione comparativa di meriti ed impatti negativi delle stesse. Sono inoltre state valutate alcune combinazioni di rapporto tra il risparmio in termini di costi esterni ed i possibili interventi economico finanziario. Infine si è analizzato il metodo City Ports evidenziando punti di forza e di debolezza emersi nelle esperienze applicative studiate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geolocalizzazione e i LBS (Location-based services), servizi associati a questi tecnologia stanno trasformando radicalmente il modo in cui i consumatori interagiscono con brand, prodotti e aziende, sia online che nel mondo reale. L 'esplosione nell'utilizzo degli smartphone ha causato un notevole aumento dell'interesse degli utenti per i servizi geolocalizzati, che aprono nuove frontiere sia ai consumatori che ai marketers. Questa tesi di laurea analizza in particolare il fenomeno Foursquare nel mondo e in Italia definendo il modello di business associato a questa tecnologia, servendosi di numerose case history e testimonianze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi tratta il tema delle reti complesse, mostrando i principali modelli di rete complessa quali: il modello Random, il modello Small-World ed il modello Scale-free; si introdurranno alcune metriche usate per descrivere le reti complesse quali la Degree centrality, la Closeness centrality e la Betweenness centrality; si descriveranno i problemi da tenere in considerazione durante la definizione e l’implementazione di algoritmi su grafi; i modelli di calcolo su cui progettare gli algoritmi per risolvere i problemi su grafi; un’analisi prestazionale degli algoritmi proposti per calcolare i valori di Beweenness centrality su grafi di medio-grandi dimensioni. Parte di questo lavoro di tesi è consistito nello sviluppo di LANA, LArge-scale Network Analyzer, un software che permette il calcolo e l’analisi di varie metriche di centralità su grafo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio parametrico del comportamento di paratie mediante modellazione numerica agli elementi finiti. Si è anche analizzato l’aspetto normativo relativo ad esse ed in particolare si è applicato il D.M. 2008 ad una paratia sottolineando le innovazioni nella progettazione geotecnica. Le paratie sono opere di sostegno flessibili interagenti con i fronti di scavo e costituite da una porzione fuori terra, soggetta a condizioni di spinta attiva, e una porzione interrata che contrappone la resistenza passiva del terreno. Le opere di sostegno flessibile si dividono in due categorie: diaframmi e palancole che differiscono molto fra loro sia per il materiale con cui sono realizzate, sia per la tecnica di messa in opera, sia per la geometria, ma hanno in comune il meccanismo di funzionamento. Sono stati illustrati i metodi di calcolo per lo studio delle paratie: metodi dell’equilibrio limite a rottura, metodi a molle e metodi agli elementi finiti. I metodi agli elementi finiti negli ultimi anni hanno avuto maggior successo grazie alla possibilità di definire il modello costitutivo sforzi-deformazioni, le condizioni al contorno e le condizioni iniziali. Esistono numerosi programmi di calcolo che si basano sul metodo agli elementi finiti, tra i quali è da annoverare il programma Plaxis che viene molto usato grazie alla presenza di vari modelli costitutivi in grado di simulare il comportamento del terreno. Tra i legami costitutivi presenti nel programma Plaxis, sono stati presi in esame il modello Mohr-Coulomb, l’Hardening model e il Soft Soil Creep model e sono poi stati applicati per eseguire uno studio parametrico del comportamento delle paratie. Si è voluto comprendere la sensibilità dei modelli al variare dei parametri inseriti nel programma. In particolare si è posta attenzione alla modellazione dei terreni in base ai diversi modelli costitutivi studiando il loro effetto sui risultati ottenuti. Si è inoltre eseguito un confronto tra il programma Plaxis e il programma Paratie. Quest’ultimo è un programma di calcolo che prevede la modellazione del terreno con molle elasto-plastiche incrudenti. Il lavoro di tesi viene illustrato in questo volume come segue: nel capitolo 1 si analizzano le principali caratteristiche e tipologie di paratie mettendo in evidenza la complessità dell’analisi di queste opere e i principali metodi di calcolo usati nella progettazione, nel capitolo 2 si è illustrato lo studio delle paratie secondo le prescrizioni del D.M. 2008. Per comprendere l’argomento è stato necessario illustrare i principi base di questo decreto e le caratteristiche generali del capitolo 6 dedicato alla progettazione geotecnica. Le paratie sono poi state studiate in condizioni sismiche secondo quanto previsto dal D.M. 2008 partendo dall’analisi degli aspetti innovativi nella progettazione sismica per poi illustrare i metodi pseudo-statici utilizzati nello studio delle paratie soggette ad azione sismica. Nel capitolo 3 si sono presi in esame i due programmi di calcolo maggiormente utilizzati per la modellazione delle paratie: Paratie e Plaxis. Dopo aver illustrato i due programmi per comprenderne le potenzialità, i limiti e le differenze, si sono analizzati i principali modelli costituitivi implementati nel programma Plaxis, infine si sono mostrati alcuni studi di modellazione presenti in letteratura. Si è posta molta attenzione ai modelli costitutivi, in particolare a quelli di Mohr-Coulomb, Hardening Soil model e Soft Soil Creep model capaci di rappresentare il comportamento dei diversi tipi di terreno. Nel capitolo 4, con il programma Plaxis si è eseguita un’analisi parametrica di due modelli di paratie al fine di comprendere come i parametri del terreno, della paratia e dei modelli costitutivi condizionino i risultati. Anche in questo caso si è posta molta attenzione alla modellazione del terreno, aspetto che in questa tesi ha assunto notevole importanza. Dato che nella progettazione delle paratie è spesso utilizzato il programma Paratie (Ceas) si è provveduto ad eseguire un confronto tra i risultati ottenuti con questo programma con quelli ricavati con il programma Plaxis. E’ stata inoltra eseguita la verifica della paratia secondo le prescrizioni del D.M. 2008 dal momento che tale decreto è cogente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro tratta l’applicazione di un progetto di Certificazione del Sistema di Gestione della Qualità di un’innovativa linea di Business nel settore delle macchine per il confezionamento delle bevande. Questo lavoro è stato preparato durante un periodo di Stage della durata di sei mesi effettuato presso SACMI IMOLA S.C. (Imola, BOLOGNA) a seguito della necessità, riscontrata dal management, di allineare il sistema gestione qualità della nuova linea di business alla normativa ISO 9001:2008, come per le altre linee di business dell’azienda. Tutto questo mediante l’implementazione di un sistema di Business Process Management (BPM) e di tutti i sistemi informatici ad esso collegati. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati l’evoluzione storica, la struttura attuale e i possibili scenari evolutivi inerenti il concetto di qualità, il sistema gestione qualità e la normativa di riferimento. La seconda parte è dedicata all’approfondimento delle tematiche del BPM, i cui principi hanno guidato l’intervento effettuato. La ricerca è stata condotta allo scopo di evidenziare le radici e gli elementi innovativi che contraddistinguono questo approccio di “management”, descrivere gli aspetti che ne hanno determinato la diffusione e l’evoluzione ed evidenziare, inoltre, il collegamento tra l’approccio per processi che sta alla base di questa filosofia di management e lo stesso approccio previsto nella normativa ISO 9001:2008 e, più specificatamente nella cosiddetta Vision 2000. Tale sezione si conclude con la formalizzazione delle metodologia e degli strumenti effettivamente utilizzati per la gestione del progetto. La terza ed ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate le varie fasi dell’implementazione del progetto, dall’analisi dell’attuale situazione alla costruzione dell’infrastruttura informatica per l’attuazione del BPM ottenuta attraverso l’applicazione dei “criteri di progettazione” trattati dalla letteratura di riferimento, passando per la mappatura dei processi attualmente in vigore e per l’analisi delle performance del processo attuale, misurate attraverso indicatori sviluppati “ad hoc”. Il lavoro è arricchito dall’analisi di un’innovativa metodologia per la creazione di un sistema di gestione integrato delle certificazioni (ISO 9001, ISO 14001, OHSAS 18001) fondato sull’infrastruttura informatica creata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.