920 resultados para Consorzio di bonifica di secondo grado per il Canale Emiliano Romagnolo, CER, QUAL2K, QUAL2E, modelli di qualità fluviale
Resumo:
Lo scattering è un processo fisico che descrive le interazioni tra particelle e radiazione elettromagnetica. Esistono diversi tipi di scattering, dove la natura di questi processi dipende dall'energia della particella e della radiazione. Quando l'elettrone fermo subisce un urto elastico con un fotone di bassa energia si ha lo \emph{scattering Thomson}. In questo processo l'onda elettromagnetica accelera la particella; successivamente dopo l'urto l'onda viene diffusa con la stessa frequenza iniziale. Questo processo accade a basse energie poichè ad energie più alte prevale l'effetto dovuto allo \emph{scattering Compton}. In questo meccanismo un fotone interagisce con un elettrone cedendogli energia e in particolare si ha una variazione di frequenza per il fotone. Quando è l'elettrone a trasferire al fotone parte della sua energia si ha \emph{Inverse Compton}. Gli ultimi due processi in realtà sono situazioni limite di un caso più generale chiamato \emph{Comptonizzazione}. Considerando un plasma rarefatto di fotoni ed elettroni, la Comptonizzazione stabilisce come l'evoluzione dello spettro viene modificato a causa dell'interazione tra fotoni ed elettroni. Nel secondo capitolo di questo elaborato verrà esaminata l'emissione in banda X della radiazione elettromagnetica in seguito a fenomeni di accrescimento intorno a buchi neri; nello specifico si analizzerà l'emissione soft e hard per buchi neri galattici.
Resumo:
Con l’evoluzione dei social network e degli strumenti del 2.0 (blog, wiki, forum), internet si avvia verso nuove forme di business cui artigiani e pmi possono sfruttare per nuove opportunità, unendo social network e e-commerce e capire come si è evoluto il processo di creazione e finanziamento di un prodotto. La tesi è un viaggio per scoprire quali sono queste nuove opportunità per chi pratica artigianato a livello locale, e come è cambiata la figura stessa dell’artigiano, tra questi un nuovo movimento chiamato makers, che sfruttano i nuovi strumenti, tra cui anche mezzi rivoluzionari come la stampante 3D ora accessibile a tutti per creare oggetti e nuove idee. Sarà necessario capire quali sono le vetrine online dove e come poter vendere i nostri prodotti e profilare attraverso una segmentazione l’utente medio che già utilizza il social-commerce. In seguito si tratta il caso empirico di una start-up italiana, Blomming, una dei primi a differenziarsi dagli altri marketplace più famosi come contenitore adatto ad artigiani, ma non solo. Si seguiranno le varie fasi di crescita da un’idea, introduzione nel mercato fino alla direzione a cui si sta avviando con le ultime novità effettuando un’analisi dei rischi. Infine per capire tendenze e storie di chi sta già usando queste piattaforme è stato necessario fare un profilo dell’artigiano fai-da-te medio intervistando, e successivamente creando grafici, 100 artigiani che già vendono online.
Resumo:
Sono stati studiati ed applicati metodi “green” per l’estrazione di poliidrossialcanoati (PHA) da colture microbiche singole (Cupriavidus necator) e miste. Sono stati effettuati esperimenti che prevedono l’utilizzo di surfattanti anionici switchable (SAS) per l’estrazione del polimero, al fine di arrivare ad un protocollo ottimale per l’estrazione di PHB da C.necator che prevede l’uso di NH4 laurato come SAS (100 wt% rispetto al peso dei batteri) per tre ore a 90°C. La sostanza ambifilica agisce distruggendo la membrana cellulare esponendo così i granuli di PHB. Il SAS utilizzato si caratterizza per la possibilità di essere recuperabile tramite aggiunta di CO2 al sistema con una resa del 98%. Per le colture microbiche miste, più refrattarie all’impiego dei surfattanti, sono stati utilizzati dei pre-trattamenti, meccanici e fotocatalitici, al fine di indebolire la membrana batterica. Per il trattamento meccanico sono stati impiegati un omogeneizzatore e un sonicatore ad ultrasuoni; mentre per il trattamento fotocatalitico è stata sperimentata l’azione del nano biossido di titanio (sospensione 1% nano-TiO2) in miscela con i batteri, esposti a radiazioni UV. Dai risultati ottenuti sia il trattamento meccanico che quello fotocatalitico non sono risultati adeguati per i batteri misti. Infine il PHB estratto dalla biomassa batterica è stato purificato con un trattamento fotocatalitico che prevede l’utilizzo di nano-TiO2 1% supportato in tessuti, esposti a luce UV. I risultati di questo post-trattamento mostrano che, anche utilizzando diverse tipologie di tessuto, il PHB viene in parte adsorbito dal tessuto, con la seguente perdita di campione. In conclusione il trattamento del C. necator con i SAS risulta essere un ottimo metodo di estrazione di PHB considerando sia la qualità del polimero estratto sia il riciclo e il riutilizzo del surfattante, mentre per il trattamento delle colture microbiche miste ancora non è stato trovato un protocollo soddisfacente.
Resumo:
Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica
Resumo:
In questa tesi viene analizzato un metodo di regolarizzazione nel quale il problema di regolarizzazione è formulato come un problema di ottimizzazione vincolata. In questa formulazione è fondamentale il termine noto del vincolo, parametro per il quale dipende la bontà della ricostruzione, che corrisponde ad una stima della norma del rumore sul dato. Il contributo della tesi è l'analisi di un algoritmo proposto per stimare il rumore in applicazioni di image deblurring utilizzando la decomposizione in valori singolari dell'operatore che descrive il blur. Sono stati fatti numerosi test per valutare sia i parametri dell'algoritmo di stima che l'efficacia della stima ottenuta quando è inserita nel termine noto del vincolo del problema di ottimizzazione per la ricostruzione dell'immagine.
Resumo:
Le tematiche relative alla compatibilità elettromagnetica (EMC) dei dispositivi elettronici (sia per il trasferimento dell'informazione che per trasmissione e conversione di potenza) sono di grande attualità a causa di molteplici fattori. Il primo è la larga diffusione di apparecchiature elettroniche e delle telecomunicazioni in svariati ambienti. Secondariamente tali dispositivi sono sempre più suscettibili al rumore per ragioni tecniche: -tensioni di alimentazione sempre più basse (alimentazione a batterie); -aumento della velocità dei dispositivi; -miniaturizzazione; -connettività wireless (spesso con diversi protocolli sullo stesso device). All'interno di questa tesi vengono trattate le interferenze elettromagnetiche (EMI) con riferimento ad una categoria specifica di prodotti (i caricabatterie)ed approfondendo in particolare le cause e le principali tecniche per limitarne l'effetto, al fine di ottenere la compatibilità dei dispositivi. Le tecniche per abbattere le EMI presentate sono poi applicate a dispositivi commerciali per valutarne gli effetti. Il lavoro è stato svolto presso la Deca di San Marino che ha messo a disposizione un laboratorio EMC (dotato di LISN PMM L3-64, Ricevitore PMM 9010/30P full-compliance e AbsorbingClamp TESEQ) ed alcuni propri prodotti.
Resumo:
Il lavoro ha riguardato l’elaborazione di segnali EEG registrati durante compiti di apprendimento associativo. In particolare, durante tali compiti, i soggetti imparavano ad associare ad una certa immagine un evento neutro e ad una diversa immagine un evento avverso; la tempistica dell’evento associato a ciascuna immagine era segnalata dalla comparsa di una cornice colorata attorno all’immagine. Mentre l’evento associato a ciascuna immagine era certo, la tempistica dell’evento poteva variare da prova a prova pur verificandosi nella maggior parte dei trial (80%) dopo un tempo T0 dalla comparsa dell’immagine e, nel 20% dei trial, dopo un tempo T1 dalla comparsa dell’immagine, con T1 < T0. Ciò generava nei soggetti le condizioni di EXPECTED TIMING dell’evento (associata alla tempistica più frequente) e la condizione di UNEXPECTED TIMING dell’evento (associata alla tempistica meno frequente). Ciascuna delle due condizioni poteva riguardare l’evento neutro (privo di una particolare valenza per il soggetto) e l’evento avverso (con una valenza negativa per il soggetto). Nel presente lavoro è stata eseguita un’analisi approfondita dei segnali EEG, sia a livello di potenziali evocati sullo scalpo che a livello di segnali ricostruiti sulla corteccia. Lo scopo è quello di chiarire le possibili attivazioni corticali che generano i potenziali osservati sullo scalpo e, quindi, quali aree della corteccia sono maggiormente implicate nella detezione degli errori di predizione. In particolare, si è indagato se tali errori sono influenzati dalla valenza dell’evento inatteso (nel nostro caso avverso rispetto a neutro). La ricostruzione delle sorgenti è stata effettuata utilizzando l’algoritmo sLORETA. In base ai risultati ottenuti, la tempistica di arrivo della cornice ha effetto soltanto quando l’evento ha una valenza (negativa) per il soggetto e le ROI maggiormente coinvolte sono quelle del cingolo e quelle somato-sensoriali.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.
Resumo:
Si analizza il nuovo protocollo iBeacon, proposto da Apple, e come questo possa essere utilizzato per migliorare e rendere maggiormente efficace la user experience delle applicazioni. Viene inoltre definito lo stato dell'arte di questa tecnologia analizzando l'hardware e il software a oggi presenti sul mercato. Proponendo un esempio di come tale protocollo possa essere utilizzato per implementare tecniche di marketing di prossimità.
Resumo:
L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
Il presente lavoro di tesi si colloca nell’ambito dell’analisi del rischio di contaminazione ambientale dovuto ad incidenti rilevanti, facendo particolare riferimento a due metodologie per la stima di tale rischio. La prima è una metodologia ad indici proposta dal Gruppo di Lavoro misto APAT/ARPA/CNVVF, tramite la quale è possibile compiere un primo livello di analisi, detto anche IRA-Initial Risk Assessment: l’obiettivo principale del metodo ad indici sopra citato è quello di individuare situazioni critiche per il suolo e sottosuolo in riferimento alla possibilità di contaminazione da parte di liquidi idrocarburici. La seconda procedura riguarda, invece, una valutazione avanzata del rischio ambientale, detta anche ARA-Advanced Risk Assessment: quest’ultima, applicata solo nel caso in cui l’analisi di primo livello abbia evidenziato situazioni critiche, viene realizzata tipicamente tramite software specifici, in grado di simulare sia nello spazio che nel tempo i fenomeni di migrazione della contaminazione nel sottosuolo. Nell’ambito del lavoro di tesi è stata eseguita per un deposito costiero di liquidi idrocarburici una valutazione del rischio ambientale sia di primo livello (IRA, tramite l’applicazione del metodo ad indici), sia di livello avanzato (ARA, tramite il software HSSM). I risultati ottenuti nei due casi risultano in ottimo accordo. La tesi è organizzata in 7 capitoli. Il Capitolo 1, che ha carattere introduttivo, illustra il concetto di rischio di incidente rilevante e si concentra sull’impatto che gli incidenti rilevanti possono avere sull’ambiente, come emerge chiaramente dall’analisi delle banche dati incidentali. Il Capitolo 2 fornisce una mappatura degli stabilimenti a rischio di incidente rilevante in Italia. Il Capitolo 3 illustra il metodo ad indici ed il Capitolo 4 riporta le caratteristiche del software HSSM. Il Capitolo 5 contiene la descrizione del caso di studio analizzato, fornendo tutti gli elementi utili ai fini dell’applicazioni delle metodologie di analisi del rischio: pertanto esso contiene la descrizione sia delle principali proprietà impiantistiche del deposito e degli scenari incidentali che in esse possono verificarsi, sia delle proprietà idrogeologiche del terreno su cui sorge il sito. Il Capitolo 6 riporta in modo ampio e documentato i risultati ottenuti dall'applicazione delle metodologie di valutazione del rischio al caso di studio. Il Capitolo 7 infine contiene alcune considerazioni finali.
Resumo:
L’acustica delle aule scolastiche è uno dei fattori che influenzano principalmente la qualità ed il livello di apprendimento degli alunni. L'obiettivo della tesi è quello di dimostrare come si possono avere miglioramenti in termini di qualità acustica negli edifici scolastici con interventi mirati e dai costi ragionevoli. L’analisi è stata condotta su un edificio esistente che ospita una scuola media. Sono stati misurati in situ tutti gli aspetti acustici rilevanti e richiesti per legge: l’isolamento di facciata, il rumore di calpestio ed il tempo di riverberazione. Sono stati studiati anche altri parametri importanti, ma spesso trascurati o sconosciuti come Sti o Sti-PA, capaci di quantificare il grado di comprensione del parlato in ambienti chiusi. Lo studente, oltre ad aver contribuito allo svolgimento delle misurazioni, ha elaborato i dati e rilevato le criticità presenti nell’edificio scolastico. Attraverso l’uso di software di simulazione ha studiato gli interventi necessari per il ripristino e per il miglioramento dei requisiti acustici dei locali. Le soluzioni adottate sono un compromesso tra un buon livello di prestazioni acustiche ed i costi necessari per gli interventi proposti
Resumo:
Questa tesi descrive il progetto e lo sviluppo di un sistema informatico interattivo per il collaudo di moduli elettronici destinati alla lettura di codici ottici quali, ad esempio, codici a barre. Il componente principale di questo sistema interattivo è una cosiddetta interfaccia grafica con l'utente, attraverso la quale è possibile progettare passi di prova, prove e piani di prove nonchè controllare l'esecuzione del collaudo. I linguaggi di programmazione utilizzati sono C# e C++. Nella tesi vengono presentati vari diagrammi Unified Modeling Language (UML) del sistema informatico sviluppato. Nelle appendici vengono riportati un elenco esaustivo dei controlli grafici utilizzati, un elenco esaustivo degli eventi gestiti dall'interfaccia grafica e viene anche riportato, quasi integralmente, il codice sorgente sviluppato.