891 resultados para gruppi di omotopia di ordine superiore cobordismo con framing gruppi di omotopia delle sfere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi ha come scopo l'illustrazione delle fasi di progetto di un impianto di microcogenerazione nell'ambito territoriale dell'Emilia Romagna. In particolare verrà fatta un'analisi economica di fattibilità, un'analisi energetica di calcolo delle prestazioni dell'impianto mediante norma UNI-TS 11300-IV, il progetto e la scelta dei componenti afferenti l'impianto di riscaldamento delle utenze e un'analisi dei documenti amministrativi disciplinanti la messa in funzione nonché la valorizzazione dell'energia elettrica immessa in rete. Il lavoro è stato eseguito su quindici impianti afferenti ad altrettante utenze con caratteristiche di utilizzo dell'impianto diversificate tra loro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attraverso il programma agli elementi finiti Abaqus, è stato modellato un sistema composto da massetto-adesivo-piastrelle al fine di determinare le prestazioni e la durabilità di una piastrellatura sottoposta a definiti livelli di sollecitazione. In particolare è stata eseguita un’analisi parametrica per comprendere se il meccanismo di collasso, caratterizzato dal distacco delle piastrelle dal massetto, dipenda dai parametri geometrici del sistema e dalle proprietà meccaniche. Il modello è stato calibrato ed ottimizzato per rispondere alle esigenze del CCB (Centro Ceramico Bologna, area disciplinare della scienza e tecnologia dei materiali), che tramite una convenzione con il dipartimento DICAM - Scienze delle costruzioni, richiede, per garantire la durabilità dell’installazione, l’interpretazione dei seguenti punti: - Influenza di un aumento del formato delle piastrelle; - Influenza di una riduzione dello spessore della fuga; - Influenza delle caratteristiche meccaniche dei materiali costituenti i diversi elementi; per esempio aumento della deformabilità dello strato di supporto oppure altro tipo di massetto, sigillante o adesivo. La richiesta dello studio del comportamento meccanico di rivestimenti ceramici deriva dal fatto che sul mercato si stanno sviluppando delle piastrelle ceramiche molto sottili e di dimensioni sempre più grandi (come ad esempio la tecnologia System-laminam), di cui non si conosce a pieno il comportamento meccanico. Il CCB cerca di definire una norma nuova e specifica per questo tipo di lastre, in cui sono indicati metodi di misura adatti e requisiti di accettabilità appropriati per lastre ceramiche sottili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni le Web application stanno assumendo un ruolo sempre più importante nella vita di ognuno di noi. Se fino a qualche anno fa eravamo abituati ad utilizzare quasi solamente delle applicazioni “native”, che venivano eseguite completamente all’interno del nostro Personal Computer, oggi invece molti utenti utilizzano i loro vari dispositivi quasi esclusivamente per accedere a delle Web application. Grazie alle applicazioni Web si sono potuti creare i cosiddetti social network come Facebook, che sta avendo un enorme successo in tutto il mondo ed ha rivoluzionato il modo di comunicare di molte persone. Inoltre molte applicazioni più tradizionali come le suite per ufficio, sono state trasformate in applicazioni Web come Google Docs, che aggiungono per esempio la possibilità di far lavorare più persone contemporanemente sullo stesso documento. Le Web applications stanno assumendo quindi un ruolo sempre più importante, e di conseguenza sta diventando fondamentale poter creare delle applicazioni Web in grado di poter competere con le applicazioni native, che siano quindi in grado di svolgere tutti i compiti che sono stati sempre tradizionalmente svolti dai computer. In questa Tesi ci proporremo quindi di analizzare le varie possibilità con le quali poter migliorare le applicazioni Web, sia dal punto di vista delle funzioni che esse possono svolgere, sia dal punto di vista della scalabilità. Dato che le applicazioni Web moderne hanno sempre di più la necessità di poter svolgere calcoli in modo concorrente e distribuito, analizzeremo un modello computazionale che si presta particolarmente per progettare questo tipo di software: il modello ad Attori. Vedremo poi, come caso di studio di framework per la realizzazione di applicazioni Web avanzate, il Play framework: esso si basa sulla piattaforma Akka di programmazione ad Attori, e permette di realizzare in modo semplice applicazioni Web estremamente potenti e scalabili. Dato che le Web application moderne devono avere già dalla nascita certi requisiti di scalabilità e fault tolerance, affronteremo il problema di come realizzare applicazioni Web predisposte per essere eseguite su piattaforme di Cloud Computing. In particolare vedremo come pubblicare una applicazione Web basata sul Play framework sulla piattaforma Heroku, un servizio di Cloud Computing PaaS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le pietre artificiali ed i cementi artistici utilizzati durante la stagione Liberty rappresentano tutt’oggi un patrimonio artistico non ancora sufficientemente studiato. In seguito ad una ricerca bibliografica su testi e riviste dei primi anni del Novecento, è stata eseguita una ricognizione del patrimonio architettonico emiliano-romagnolo, al fine di valutarne i materiali e le tipologie di degrado più diffuse. Le città e le zone oggetto di studio sono state: Bologna, Ferrara, Modena e provincia, Reggio Emilia, Parma, Firenze, la Romagna e le Marche settentrionali. Tra gli edifici individuati sono state analizzate le decorazioni e gli intonaci di tre edifici ritenuti particolarmente significativi: il villino Pennazzi (noto anche come Villa Gina) a Borgo Panigale (Bologna), villa Verde a Bologna e l’ex-albergo Dorando Pietri a Carpi. Da tali edifici sono stati selezionati campioni rappresentativi delle diverse tipologie di decorazioni in pietra artificiale e successivamente sono stati caratterizzati in laboratorio tramite diffrattometria a raggi x (XRD), termogravimetria (TGA), microscopio ottico in sezioni lucide, microscopio elettronico a scansione (SEM) e porosimetria ad intrusione di mercurio (MIP). In particolare per Villa Verde sono state formulate e caratterizzate diverse tipologie di malte variando il tipo di legante ed il rapporto acqua/cemento, al fine di garantire la compatibilità fisico-meccanica con il supporto negli interventi di risarcimento delle lacune previsti nel restauro. L’attività sperimentale svolta ha permesso di mettere a punto un vero e proprio protocollo diagnostico per il restauro di questo tipo di decorazioni che potrà essere utilizzato sia nei casi di studio analizzati che per ogni futuro intervento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nanotecnologia è una scienza innovativa che sviluppa e utilizza materiali di dimensioni nanometriche (< 100 nm). Lo sviluppo e il mercato delle nanoparticelle in merito alle loro interessanti proprietà chimico‐fisiche, é accompagnato da una scarsa conoscenza relativa al destino finale e agli effetti che questi nano materiali provocano nell’ ambiente [Handy et al., 2008]. La metodologia LCA (Life Cycle Assessment – Valutazione del Ciclo di Vita) è riconosciuta come lo strumento ideale per valutare e gestire gli impatti ambientali indotti dalle ENPs, nonostante non sia ancora possibile definire, in maniera precisa, un Fattore di Caratterizzazione CF per questa categoria di sostanze. Il lavoro di questa tesi ha l’obbiettivo di stimare il Fattore di Effetto EF per nanoparticelle di Diossido di Titanio (n‐TiO2) e quindi contribuire al calcolo del CF; seguendo il modello di caratterizzazione USEtox, l’EF viene calcolato sulla base dei valori di EC50 o LC50 relativi agli organismi appartenenti ai tre livelli trofici di un ecosistema acquatico (alghe, crostacei, pesci) e assume valore pari a 49,11 PAF m3/Kg. I valori tossicologici utilizzati per il calcolo del Fattore di Effetto derivano sia da un’accurata ricerca bibliografica sia dai risultati ottenuti dai saggi d’inibizione condotti con n‐TiO2 sulla specie algale Pseudokirchneriella Subcapitata. La lettura dei saggi è stata svolta applicando tre differenti metodi quali la conta cellulare al microscopio ottico (media geometrica EC50: 2,09 mg/L, (I.C.95% 1,45‐ 2,99)), l’assorbanza allo spettrofotometro (strumento non adatto alla lettura di test condotti con ENPs) e l’intensità di fluorescenza allo spettrofluorimetro (media geometrica EC50: 3,67 mg/L (I.C.95% 2,16‐6,24)), in modo tale da confrontare i risultati e valutare quale sia lo strumento più consono allo studio di saggi condotti con n‐TiO2. Nonostante la grande variabilità dei valori tossicologici e la scarsa conoscenza sui meccanismi di tossicità delle ENPs sulle specie algali, il lavoro sperimentale e la ricerca bibliografica condotta, hanno permesso di individuare alcune proprietà chimico‐fisiche delle nanoparticelle di Diossido di Titanio che sembrano essere rilevanti per la loro tossicità come la fase cristallina, le dimensioni e la foto attivazione [Vevers et al., 2008; Reeves et al., 2007]. Il lavoro sperimentale ha inoltre permesso di ampliare l’insieme di valori di EC50 finora disponibile in letteratura e di affiancare un progetto di ricerca dottorale utilizzando il Fattore di Effetto per n‐ TiO2 nel calcolo del Fattore di Caratterizzazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il cemento è il materiale da edilizia più comune al mondo e le problematiche ambientali associate all’utilizzo ed al ciclo produttivo sono numerose (rilascio di gas serra, scelta delle materie prime, risparmio energetico) e fortemente impattanti. Tuttavia, nonostante la sua diffusione sia globale e le proprietà siano note da millenni vi sono ancora alcuni processi che non sono stati correttamente spiegati. In particolare non esiste una teoria unica e consolidata che descriva efficacemente la microstruttura delle fasi minerali del cemento che si sviluppano successivamente all'idratazione, e come esso di conseguenza interagisca con principi attivi, organici o inorganici, di cui è noto l’effetto accelerante sulla cinetica di indurimento. Questa tesi si pone l'obiettivo di condurre uno studio dell'idratazione del clinker finemente macinato (CFM - principale componente di molti cementi) focalizzato sull’interazione tra elementi chimici presenti nella matrice cementizia (Calcio, Ferro e Alluminio) ed additivi acceleranti (Trietanolammina, Triisopropanolammina). Il fenomeno è stato studiato tramite osservazione dell'andamento del rilascio dei suddetti ioni su cementi in via di idratazione e tramite utilizzo di tecniche di microscopia elettronica e di diffrazione di raggi X. L'analisi del rilascio di ioni, effettuata mediante spettroscopia ad assorbimento atomico, è stata condotta al fine di approfondire l'azione di trietanolammina e triisopropanolammina sulle dinamiche di idratazione dei CFM nelle fasi precoci di idratazione, al fine di confrontare queste dinamiche con processi che avvengono in fasi successive e che coinvolgono la formazione delle principali fasi amorfe e cristalline responsabili delle proprietà del materiale. Da indagini di diffrattometria e microscopia sono inoltre state estrapolate interessanti considerazioni circa le cinetiche che portano alla formazione delle fasi cristalline tipiche dell'idratazione del cemento (portlandite, ettringite) in presenza e assenza di additivi. Nel corso dello studio sono stati sintetizzati alcuni composti alternativi agli additivi commerciali, sviluppati a partire da building blocks provenienti da fonti rinnovabili, portando quindi l'attenzione sulla sostenibilità del processo di progettazione delle molecole, anche alla luce della degradazione in ambiente delle sostanze sintetizzate. Tali molecole sono attualmente in fase di test presso i laboratori di Italcementi (ITC Group).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del progetto è di calcolare, tramite un modello agli elementi finiti, lo stato di sollecitazione delle parti costituenti l’ala di un velivolo ultraleggero, e di visualizzare i risultati della soluzione del calcolo in maniera grafica. L’aeromobile oggetto di studio è lo Yuma 912 S commercializzato da Alisport, un velivolo di categoria ULM (UltraLeggero Motorizzato) con capacità STOL (Short TakeOff and Landing – decollo ed atterraggio corti). Tutto il lavoro di progettazione, modellazione e calcolo è stato eseguito con un’unica tipologia di programma, CATIA V5, disponibile commercialmente, al fine di evitare conflitti tra diversi programmi CAD (per disegno assistito dal calcolatore) e CAE/FEA (per analisi ingegneristica del prodotto). Il lavoro si è articolato nelle seguenti fasi: progettazione assistita dal calcolatore, sviluppo del modello, valutazione della soluzione. I carichi introdotti nell’analisi sono stati scelti considerando le caratteristiche del velivolo ed il proprio diagramma di manovra, quindi calcolati in maniera teorica e successivamente applicati al modello in esame. La soluzione è stata poi visualizzata tramite simulazione della struttura deformata ed applicazione di una scala di colori sulle zone sottoposte ai diversi stati di sollecitazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crisi del “teatro come servizio pubblico” degli Stabili, Piccolo Teatro in testa, si manifesta allo stadio di insoddisfazione interna già alla fine degli anni Cinquanta. Se dal punto di vista della pratica scenica, la prima faglia di rottura è pressoché unanimemente ricondotta alla comparsa delle primissime messe in scena –discusse, irritanti e provocatorie- di Carmelo Bene e Quartucci (1959-60) più difficile è individuare il corrispettivo di un critico-intellettuale apportatore di una altrettanto deflagrante rottura. I nomi di Arbasino e di Flaiano sono, in questo caso, i primi che vengono alla mente, ma, seppure portatori di una critica sensibile al “teatro ufficiale”, così come viene ribattezzato dopo il Convegno di Ivrea (1967) il modello attuato dagli Stabili, essi non possono, a ben vedere, essere considerati i veri promotori di una modalità differente di fare critica che, a partire da quel Convegno, si accompagnerà stabilmente alla ricerca scenica del Nuovo Teatro. Ma in cosa consiste, allora, questa nuova “operatività” critica? Si tratta principalmente di una modalità capace di operare alle soglie della scrittura, abbracciando una progressiva, ma costante fuoriuscita dalla redazione di cronache teatrali, per ripensare radicalmente la propria attività in nuovi spazi operativi quali le riviste e l’editoria di settore, un rapporto sempre più stretto con i mass-media quali radio e televisione e la pratica organizzativa di momenti spettacolari e teorici al contempo -festival, convegni, rassegne e premi- per una forma di partecipazione poi identificata come “sporcarsi le mani”. La seconda parte della tesi è una raccolta documentaria sull’oggi. A partire dal Manifesto dei Critici Impuri redatto nel 2003 a Prato da un gruppo di critici dell'ultima generazione, la tesi utilizza quella dichiarazione come punto di partenza per creare un piccolo archivio sull’oggi raccogliendo le elaborazioni di alcune delle esperienze più significative di questi dieci anni. Ricca appendice di materiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this thesis was to investigate the respective contribution of prior information and sensorimotor constraints to action understanding, and to estimate their consequences on the evolution of human social learning. Even though a huge amount of literature is dedicated to the study of action understanding and its role in social learning, these issues are still largely debated. Here, I critically describe two main perspectives. The first perspective interprets faithful social learning as an outcome of a fine-grained representation of others’ actions and intentions that requires sophisticated socio-cognitive skills. In contrast, the second perspective highlights the role of simpler decision heuristics, the recruitment of which is determined by individual and ecological constraints. The present thesis aims to show, through four experimental works, that these two contributions are not mutually exclusive. A first study investigates the role of the inferior frontal cortex (IFC), the anterior intraparietal area (AIP) and the primary somatosensory cortex (S1) in the recognition of other people’s actions, using a transcranial magnetic stimulation adaptation paradigm (TMSA). The second work studies whether, and how, higher-order and lower-order prior information (acquired from the probabilistic sampling of past events vs. derived from an estimation of biomechanical constraints of observed actions) interacts during the prediction of other people’s intentions. Using a single-pulse TMS procedure, the third study investigates whether the interaction between these two classes of priors modulates the motor system activity. The fourth study tests the extent to which behavioral and ecological constraints influence the emergence of faithful social learning strategies at a population level. The collected data contribute to elucidate how higher-order and lower-order prior expectations interact during action prediction, and clarify the neural mechanisms underlying such interaction. Finally, these works provide/open promising perspectives for a better understanding of social learning, with possible extensions to animal models.