999 resultados para volte dissesti vulnerabilità miglioramento strutturale
Resumo:
Gli impianti industriali moderni sono di tipo automatizzato, i processi sono cioè pilotati da un’unità di calcolo che fornisce i comandi necessari atti al corretto funzionamento dell’impianto. Queste tecnologie espongono le apparecchiature a problemi di Security, dunque attacchi volontari provenienti dall’esterno, al sistema di controllo. Esso può diventare la variabile manipolabile del terrorista informatico il quale può causare lo shut down del segnale o cambiare l’impostazione dei parametri di processo.Lo studio esposto si propone di identificare le possibili modalità di attacco e di individuare uno strumento sistematico che permetta di valutarne la vulnerabilità ad un possibile atto di sabotaggio. La procedura proposta è la PSC-SHaRP (Process System Cyber-Security Hazard Review Procedure) essa consta di due strutture chiamate rispettivamente Alpha e Beta. La metodologia è volta a individuare i potenziali pericoli posti dagli attacchi informatici piuttosto che a stimarne un profilo di rischio e/o probabilità di successo. La ShaRP Alpha, viene utilizzata per analizzare le conseguenze di deviazioni cyber su singole macchine presenti in impianto o sistemi modulari. La ShaRP Beta viene utilizzata per analizzare le conseguenze di attacchi cyber sul sistema costituito dall’impianto di processo. Essa è quindi in grado di analizzare le ripercussioni che manipolazioni su una o più apparecchiature possono avere sull’impianto nel suo complesso. Nell’ultima parte dell’elaborato sono state trattate le possibilità di accesso da parte del ‘’terrorista’’ al sistema di controllo e sicurezza, dunque i sistemi di gestione del DCS e del SIS e le barriere software e hardware che possono essere presenti.
Resumo:
La presente trattazione descrive l’ottimizzazione del prototipo di un generatore termoelettrico da integrare in caldaie a biomassa. La tecnologia termoelettrica consente di generare potenza elettrica a partire da un flusso di calore. Sebbene tale tecnologia presenti caratteristiche di elevata affidabilità e silenziosità, essa richiede ulteriori sforzi tecnologici nella ricerca dell’integrazione ottimale con un impianto termico, ed è inoltre necessaria una progettazione accurata dell’elettronica di controllo. Nella prima sezione del testo vengono descritti i principi fisici alla base di questa tecnologia e le tecniche per la conversione della potenza generata dai moduli termoelettrici (o ad effetto Seebeck) al fine di renderla fruibile da una tipica utenza domestica. Nel secondo capitolo si riporta lo stato dell’arte dell’applicazione della tecnologia termoelettrica in caldaie a biomassa e alcuni casi di implementazione recenti, sottolineando le configurazioni utilizzate, i principali problemi riscontrati nello sviluppo e nella sperimentazione, e le modifiche conseguentemente adottate per superarli. Il terzo capitolo analizza il prototipo sviluppato presso il Dipartimento di Ingegneria Industriale dell’Università di Bologna e descrive il processo di dimensionamento dei componenti meccanici e le proposte di ottimizzazione a seguito dei risultati dei primi collaudi. Viene infine sviluppato un modello matematico per confrontare, in funzione dei costi di produzione e di esercizio, le possibilità di sostituzione dei metodi di generazione di energia elettrica convenzionali con l’impianto di cogenerazione termoelettrica realizzato, considerando anche aspetti di impatto ambientale. Tali analisi e ottimizzazioni consistono in un primo miglioramento necessario a rendere la tecnologia termoelettrica applicabile alle caldaie a biomassa stand-alone e a permettere una generazione continua di energia elettrica nelle regioni in cui le infrastrutture sono poco affidabili.
Resumo:
I materiali compositi, grazie alla combinazione delle proprietà dei singoli componenti di cui sono costituiti, in particolare la coesistenza di elevate caratteristiche meccaniche e pesi ridotti, rivestono da tempo un ruolo fondamentale nell’industria aeronautica e nel settore delle competizioni automobilistiche e motociclistiche. La possibilità di progettare i materiali in funzione della loro applicazione, unita alla riduzione dei costi di produzione, permette una crescente diffusione del loro utilizzo e l’ampliamento delle applicazioni a moltissimi altri settori, sia per componenti di tipo strutturale, sia di tipo estetico. L’obiettivo della presente tesi è analizzare, attraverso una campagna sperimentale, il comportamento di diversi materiali realizzati con la tecnica di produzione HP-RTM, tramite prove di taglio interlaminare e flessione, al fine di verificare l’applicabilità di tale processo a prodotti strutturali, in modo da velocizzare i tempi di produzione e quindi di abbassare i costi, mantenendo al tempo stesso elevate proprietà meccaniche. Lo scopo di questa campagna quindi è fornire, attraverso lo studio di 30 serie di provini, il materiale migliore in termini di resistenza a flessione e taglio interlaminare; inoltre per ogni tipologia di materiale vengono descritte le diverse distribuzioni dei valori di rottura riscontrati, in modo da lasciare al progettista più libertà possibile nella scelta del materiale in base alle specifiche richieste per una determinata applicazione. Questo studio permette di analizzare l’influenza di ogni singolo componente (tipo di fibra, tipo di binder, presenza o assenza di IMR), all’interno della stessa resina.
Resumo:
La tesi nasce dalla volontà di agire sull’area della Darsena di Ravenna, strategica in quanto via d’acqua navigabile che congiunge il mare con il centro città ma dal potenziale ancora poco sfruttato. Il progetto è studiato per essere inserito come catalizzatore urbano, creando spazi di interazione attraverso elementi modulari galleggianti e riconfigurabili per adattarsi a programmi d’uso flessibili; tali elementi si aggregano formando un sistema che ristruttura lo spazio dell’attuale banchina, cambiandone la percezione da barriera a waterfront urbano. La necessità di ottenere una struttura con capacità di crescita e flessibilità programmatica sfocia in un approccio modulare seguendo il principio massima variazione/minimo numero di elementi i cui principi aggregativi si basano sulla tassellazione “Cairo”. Vengono studiate le possibilità di incorporare variazione ed eterogeneità all’interno del sistema senza comprometterne la modularità fino ad integrare percorsi multilivello. La definizione delle morfologie delle parti che compongono i moduli si basano sullo studio dei principi di galleggiamento, stabilità e yacht design: a partire dalla forma dello scafo adatta ai principi di tiling definiti in precedenza, tutte le parti che compongono le varie tipologie di modulo sono progettate cercando continuità e integrazione tettonica (geometrica, strutturale, funzionale e percettiva). Vengono proposte soluzioni integrate sia per le problematiche tipiche delle strutture galleggianti sia per l’inserimento di attività all’interno della soluzione architettonica. Vengono prototipati di una serie di moduli, scelti in modo da dimostrare i principi di ricombinazione, continuità, modularità e tiling.
Resumo:
Negli ultimi mesi la possibilità di una cosiddetta “Brexit”, ovvero di un’uscita della Gran Bretagna dall’Unione Europea, ha dominato i canali di informazione europei e mondiali. Nel referendum consultivo tenutosi il 23 giugno 2016 la maggioranza della popolazione inglese ha scelto di uscire dall’UE, e il Regno Unito potrebbe diventare il primo Paese membro ad abbandonare l’Unione. Il Regno Unito è stato un Paese membro poco partecipe fin dalla sua entrata nella Comunità Economica Europea (CEE) nel 1973: indisse un referendum per decidere se restare nella CEE già nel 1975, e in seguito ha cercato più volte di ritrattare i contributi finanziari che era tenuto a versare, si è tenuto fuori dall’area Schengen e non è entrato nell’euro. Lo scopo di questo elaborato è analizzare l’evoluzione dell’euroscetticismo inglese dalle origini dell’Unione Europea al referendum del 2016, indagando le ragioni per cui i cittadini inglesi hanno scelto di uscire dall’UE. Il primo capitolo si concentra sul rapporto sviluppatosi tra Gran Bretagna e Unione Europea dal dopoguerra fino al 2012. Il secondo capitolo tratta in modo specifico del referendum inglese del 2016, considerando le due campagne referendarie ufficiali e analizzando i risultati delle votazioni. Le fonti utilizzate per la ricerca sono principalmente saggi pubblicati su riviste online, articoli di giornale, libri e siti delle campagne referendarie e del governo inglese.
La traduzione della canzone d'autore tra l'italiano e il francese: le scelte, la metrica e il suono.
Resumo:
Sin dall’infanzia ho sentito un forte legame con la musica e l’amore per il canto e allo stesso tempo per le lingue straniere, mi ha condotto a frequentare il corso di mediazione linguistica interculturale dell’università di Bologna, che univa e fondeva fino alla radice queste due mie passioni. Nel corso della mia carriera universitaria, “au jour le jour” cercavo di cimentarmi in traduzioni di canzoni ma progredendo nei miei studi, più traducevo e più mi rendevo conto di quante difficoltà possa presentare questo genere di traduzione. Le figure retoriche e le frasi idiomatiche presenti in una canzone non solo sono molto difficili da trasportare nella lingua d’arrivo ma spesso e volentieri devono essere totalmente stravolte per poter mantenere il senso e lo scopo del testo di partenza. Insomma, “se vogliamo che tutto rimanga com’è, bisogna che tutto cambi”. (Giuseppe Tomasi di Lampedusa, 1969:40-41). Troppe volte mi sono imbattuto in canzoni già tradotte il quale senso primario andava disperso nell’oblio. In quanto aspirante traduttore so bene cosa significhi dover tagliare o sconvolgere il testo di partenza quando serve ma ove non ve n’è bisogno, non capisco il perché del doverlo fare. In questa mia tesi di laurea presenterò quattro canzoni d’autore: una canzone in italiano ed una in francese ancora non tradotte ed una canzone in italiano ed un’altra in francese che sono già state tradotte. Nel secondo caso, quello dei testi già tradotti, presenterò una mia versione di traduzione nella quale cercherò di rispettare la metrica, l’equilibrio dei suoni e le figure retoriche.
Resumo:
Questo elaborato ha lo scopo di delineare gli eventi storici e i fattori sociali e culturali che hanno portato alla nascita e allo sviluppo di una certa percezione dell’Italia in Giappone. Tale percezione, sebbene a volte basata su una visione stereotipata del Bel Paese, è tendenzialmente molto positiva ed è la conseguenza del crescente interesse che i giapponesi nutrono per l’Italia. La tesi è strutturata in tre capitoli: il primo è dedicato alla storia delle relazioni tra il Giappone e l’Occidente; il secondo si focalizza sui rapporti tra l’Italia e il Giappone in particolare, dai primi contatti fino a oggi, e una parte consistente del capitolo è incentrata sull'analisi degli stereotipi; infine il terzo si concentra sui contatti Italia-Giappone da un punto di vista culturale, analizzando le reciproche influenze in ambiti specifici (quali l’arte, il cinema, la lingua e la cucina) e vengono forniti alcuni esempi di rappresentazione dell’immagine dell’Italia nella cultura nipponica.
Resumo:
L’aforisma è un genere letterario che fa della brevità il suo carattere distintivo, le sue caratteristiche principali, infatti, si rifanno tutte a questa sua natura. Solitamente composto da non più di qualche parola, l’aforisma si contraddistingue per la densità e apertura di significato (Gatica Cote, 2015): densità perché in poche righe si concentra tutto il messaggio espresso, che in generale è breve e intenso, e apertura poiché, proprio per la sua concisione, questa forma testuale è facilmente soggetta a diverse interpretazioni, si richiede infatti al lettore di aforismi di ricostruirne l’intenzione comunicativa, che a volte può apparire oscura, e di rimettere insieme i pezzi per decifrare il messaggio. L’aforisma può essere definito una sorta di minimalismo artistico (Martínez, 2012) in cui il massimo viene espresso con il minimo. La concisione, l’isolamento testuale, l’uso della prosa e l’assenza di narrativa (Gatica Cote, 2015) sono tutte caratteristiche tipiche che si possono associare all’aforisma e che lo definiscono.
Resumo:
Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.
Resumo:
La citofluorimetria è una tecnica applicata per misurare le caratteristiche fisiche, morfologiche e fisiologiche di cellule microbiche ed ha il pregio di generare un dato per ogni singola particella (cellula) analizzata. Poiché è noto che l’assenza di sviluppo in piastra non implica necessariamente l’assenza di forme microbiche vitali, questa tecnica ha un grande potenziale nello studio dei trattamenti termici che mirano alla stabilizzazione ed alla sicurezza igienico-sanitaria dei prodotti alimentari. Infatti, nel contesto industriale la tendenza è quella di ridurre l’entità di questi trattamenti (tempi/temperature). Ciò può avvenire anche grazie all’utilizzo di composti d’aroma, la cui attività antimicrobica è ben documentata, poiché il trattamento termico, incrementando la tensione di vapore di queste sostanze, ne potenzia l’attività antimicrobica. Questa tesi è incentrata su due aspetti: da una parte, l’effetto dell’esposizione di L. monocytogenes a diverse concentrazioni di timolo e carvacrolo (terpenoidi prevalenti in oli essenziali di Labiatae tra cui timo e origano), dall’altra la valutazione degli effetti di trattamenti termici subletali (45, 50, 55°C), anche in presenza di composti d’aroma, sulla disattivazione e sul successivo recupero di L. monocytogenes. I risultati hanno confermato la forte sinergia tra trattamento termico e presenza di sostanze terpeniche. È stato inoltre dimostrato che la presenza di tali composti incide drasticamente sulle potenzialità di recupero degli eventuali sopravvissuti dopo il trattamento termico. I risultati a volte discordanti tra l’analisi citofluorimetrica (focalizzata sull’integrità della membrana) e i conteggi in piastra hanno evidenziato come i due approcci debbano essere utilizzanti in modo complementare. L’utilizzo di altri coloranti legati ad altre funzioni biologiche e metaboliche permetterà l’ottenimento di informazioni aggiuntive circa la risposta fisiologica di questo microrganismo.
Resumo:
Nel corso degli ultimi decenni si è assistito a un aumento di malattie e disturbi che colpiscono il sistema nervoso,specialmente il cervello. Si è dunque resa necessaria la ricerca e l'analisi di tecniche di stimolazione transcranica a fini sperimentali, clinici e di diagnosi. Tra queste spiccano per la loro versatilità la TMS e la tDCS, le quali hanno già trovato e possono ancora trovare la loro applicazione in numerosi ambiti anche molto differenti tra loro, tra cui quello motorio, verbale, della memoria o per disturbi neurodegenerativi. L'analisi approfondita delle loro applicazioni può non solo portare a meglio comprendere i limiti che le due tecniche hanno al giorno d'oggi e quindi portare a un miglioramento delle stesse, ma anche ad una comprensione più accurata del funzionamento del sistema nervoso, tutt'ora ancora alquanto oscuro nella sua complessità. Infine, confrontando le due tecniche si può meglio definire anche quali possano essere gli ambiti in cui l'una e l'altra sono più vantaggiose o possano dare contributi più incisivi.
Resumo:
Quadro legislativo europeo e nazionale e nuovi decreti della regione Emilia Romagna riguardanti le misure per il contenimento dei consumi energetici nell'edilizia. Analisi energetica di un edificio residenziale. Studio di alcuni interventi proposti al fine di incrementare le prestazioni energetiche dell'edificio, diminuendone le dispersioni verso l'ambiente esterno e/o migliorando il rendimento dell'impianto. Tali interventi sono volti alla riduzione dei consumi, sia economici sia di combustibile fossile, e al miglioramento delle condizioni di benessere termoigrometrico. Successiva analisi economica degli interventi, utilizzando come indici il VAN e il PBT e tenendo conto dell'Ecobonus. Relazione tra gli investimenti iniziali di cui necessitano tali interventi e la riduzione dell'indice di prestazione energetica ottenuta. Relazione tra gli investimenti iniziali necessari e i relativi valori di risparmio annuo monetario che si ottiene in seguito alla diminuzione di energia primaria e quindi di combustibile utilizzato per il riscaldamento e la produzione di acqua calda sanitaria. Confronto fra i vari interventi al fine di valutarne la convenienza.
Resumo:
In questa tesi è stata studiata la nuova tecnologia offerta da MPTCP che permette l'utilizzo di interfacce multiple per una stessa sessione. I benefici portati sono un miglioramento della capacità trasmissiva e una maggiore robustezza ai guasti. Per testare le sue funzionalità sono stati effettuate prove con laptop muniti di almeno due interfacce di rete.
Resumo:
Nelle società moderne, il problema del “rifiuto”, costituisce un fenomeno strettamente connesso allo stile di vita dei cittadini, nonché al sistema di produzione e distribuzione dei beni di consumi e alle normative che regolano questi due aspetti.Ogni anno, solamente in Italia, sono circa 380.000 le tonnellate di pneumatici che sono destinate a discarica, e sono oltre 100 gli anni che un pneumatico impiega per la biodegradazione. L’utilizzo del bitume modificato con polverino di gomma è nato negli Stati Uniti, ma al giorno d'oggi viene utilizzato sempre più frequentemente anche in Italia e in Europa quale valida alternativa per il confezionamento di conglomerati bituminosi. L’attività sperimentale presentata in questa tesi consiste nel confronto di 2 miscele: una di conglomerato bituminoso standard e l’altra sperimentale con polverino di gomma da PFU, progettata nel Laboratorio di Strade dell’Università di Ingegneria e Architettura di Bologna. Per procedere con la comparazione delle due materiali si è realizzato un campo prove in vera grandezza, in viale Togliatti a Bologna. Nel laboratorio di Strade dell'Università di Bologna si sono poi confezionati dei provini con il materiale prelevato in sito, e su di essi sono state svolte le prove di caratterizzazione statica (ITS) e dinamica (ITSM). Il risultati ottenuti dimostrano che la miscela sperimentale presenta caratteristiche meccaniche inferiori a quella vergine, ma in ogni caso soddisfacenti e superiori a quelli mediamente riconosciuti per miscele bituminose tradizionali per strati di usura. Da sottolineare è che la minore rigidezza presentata dalle miscele additivate con PFU, secondo consolidata bibliografia scientifica, potrebbe conferirle una maggiore resistenza ai carichi ripetuti e determinare così un miglioramento delle caratteristiche di durabilità della pavimentazione bituminosa.
Resumo:
La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.