456 resultados para Realtà aumentata, Android, videogiochi
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Nell’ambito del Laboratorio di sintesi finale “ Progetto Buenos Aires”, siamo entrati in contatto con la realtà sociale, culturale ed architettonica sudamericana, che si presenta attualmente molto complessa e dinamica. Partendo dalle dieci conferenze tenute in Sudamerica dal demiurgico Le Corbusier nel 1929, abbiamo intrapreso un’analisi critica dei progetti proposti dall’architetto svizzero al fine di comprendere il suo approccio progettuale in relazione alle specificità urbane di Buenos Aires, Montevideo, San Paolo e Rio de Janeiro. L’obiettivo del corso è stato poi quello di sviluppare un progetto di architettura individuale per la realtà urbana di Buenos Aires e a tal scopo, nel mese di maggio, abbiamo intrapreso un primo viaggio per comprendere direttamente alcuni aspetti legati alla “natura” della città. Con la volontà di cogliere al meglio le articolate ed eterogenee sfaccettature che una metropoli come Buenos Aires può offrire, siamo tornati, nei mesi di ottobre e novembre, per vivere, osservare e studiare la città. Tale esperienza ci ha permesso di acquisire una migliore visione critica e di comprendere con maggiore consapevolezza le sue molteplici sfumature. Al fine di avviare il progetto abbiamo inizialmente svolto ricerche documentali presso la Biblioteca Nacional, la biblioteca del FADU (Facultad de Arquitectura, Disegno y Urbanismo di Buenos Aires), e la biblioteca della Societad Central de Arquitectos ed altri archivi, che ci hanno acconsentito di reperire testi e materiali essenziali non disponibili in Italia. Il percorso è stato arricchito da una serie d’incontri e dibattiti sulla città, i suoi continui cambiamenti e le sue criticità, con architetti e professori della FADU e della Facultad de Arquitectura y Urbanismo de la Universidad de La Plata, quali il professor Miguel Angel Roca, Javier Fernandez Castro e Fernando Aliata. Intrecci che hanno rappresentato un momento di riflessione importante per una visione generale dell’ambiente culturale in cui stavamo lavorando, e hanno proposto alcune chiare idee per un ridisegno generale della città di Buenos Aires e alcune suggestioni per i progetti portati avanti individualmente. Abbiamo avuto inoltre il grande onore di esporre e mostrare i nostri primi elaborati davanti agli studenti e professori delle suddette facoltà, avviando così un momento di scambio e confronto sui diversi approcci metodologici adottati nei due paesi, al tempo stesso così lontani e così vicini. Il coronamento di questa esperienza è stato l’incontro con due figure fondamentali nel processo architettonico argentino del secondo Novecento, l’architetto Justo Solsona e l’architetto Clorindo Testa. La tesi si articola in cinque diversi momenti. Il primo, a scala territoriale, propone una suggestione sui possibili sviluppi della Ciudad autonoma de Buenos Aires, mentre gli altri, sulla base di un’idea di fondo, rappresentano i progetti architettonici sviluppati individualmente.
Resumo:
Ammettere l'eterogeneità di Villa Lugano e Villa Riachuelo significa riconoscere nella totalità di questa zona una serie di realtà differenti, ciascuna delle quali a suo modo ne definisce l'identità. Si possono riconoscere gli interventi di edilizia popolare del secondo dopoguerra, come il Barrio General Belgrano per citare il più vistoso, un tessuto omogeneo di residenze di massimo cinque piani, il grande parco dell'autodromo e quello del campo da golf, la ferrovia in disuso, l'autostrada che taglia in due il quartiere e separa nettamente la parte "civile" da quella considerata illegale: le villas miserias. Rispettare le diverse realtà che convivono all'interno del quartiere è un primo passo per capire la complessità del territorio su cui si opera, e capire come riuscire a farle comunicare e relazionarsi in maniera più diretta ed efficace può essere un modo per risolvere quelle situazioni di isolamento sociale ed economico che si stanno subendo in entrambe le parti. L'idea progettuale è quella di rimediare a questa frattura e di ridare spazio vitale al denso tessuto urbano connettendo con una fascia verde il parco fino a Ciudad Oculta, situata alla parte opposta del barrio.
Resumo:
“ Per anni ho creduto essere cresciuto in una periferia di Buenos Aires, periferia di strade avventurose e di tramonti visibili. In realtà sono cresciuto in un giardino, dietro le lance di un cancellata, e in una biblioteca di infiniti volumi inglesi. Quel Palermo del coltello e la chitarra (mi assicurano) era agli angoli delle strade, ma chi popolava le mie mattine e procurava un gradevole orrore alle mie notti erano il bucaniere cieco di Stevenson, agonizzante sotto gli zoccoli dei cavalli, e il traditore che abbandonò l’amico sulla luna, e il viaggiatore del tempo che riportò dal futuro un fiore appassito, e il genio prigioniero per secoli nell’anfora salomonica, e il profeta velato del Khorasan, che dietro le gemme e la seta nascondeva la lebbra. Cosa succedeva, nel frattempo, oltre le lance della cancellata? Quali destini vernacoli e violenti andavano compiendosi a pochi passi da me, nella sordida bettola o nello spazio turbolento? Com’era quel Palermo o come sarebbe stato bello che fosse? A tali domande vuole rispondere questo libro, più d’immaginazione che documentato.” E’ così che Jorge Luis Borges apre il libro Evaristo Carriego, saggio biografico che passò quasi inosservato all’interno degli ambienti intellettuali della capitale dei quali faceva parte lo scrittore stesso. Il libro era dedicato alla figura, estranea a quegli ambienti, del poeta “bohemien, tisico ed anarchico” Evaristo Carriego, vissuto tra otto e novecento nel quartiere Palermo, in quei tempi periferia malfamata di Buenos Aires. Buenos Aires è la città borgesiana per eccellenza: priva di caratteristiche tipologiche precise, volubile allo sguardo, specchio e metafora di tutte le grandi città del mondo. Ma soprattutto Buenos Aires è una città “inventata” da Borges, che le ha dato un’immagine letteraria che si relaziona in maniera complessa con quella reale. Segnerà nell’immaginario di Borges l’inizio e la fine della sua vita, una sorta di centralità, unico stralcio di stabilità, al quale l’inquieta mente dell’argentino possa far ritorno.
Resumo:
Abbiamo più volte ribadito all’interno di questa tesi che una delle più importanti azioni che Borges compie con la sua scrittura è quella di riportare in vita, attraverso le memorie passate, la città di Buenos Aires, e in particolare il sobborgo. Il poeta si riappropria della sua città d’infanzia con un processo di allontanamento da quei tratti che oggi contraddistinguono Buenos Aires (come ad esempio la rumorosità assordante della vita metropolitana) a favore di quei connotati che un tempo rendevano la città mitica. Questo è il tentativo di elevare e recuperare l’aspetto autoctono del “suo” quartiere, valorizzando gli elementi caratterizzanti il sobborgo, che portano alla scoperta delle bellezze dei “quartieri amici” come scritto nel prologo di Fervore di Buenos Aires. Un altro elemento fondamentale che ha guidato questo lavoro è il tango. Borges opera in un‘epoca in cui non esiste un’identità argentina chiara e definita. Il processo di immigrazione ha fatto sì che la mescolanza di culture provenienti dall’estero, soprattutto dall’Europa, frammentasse quelli che erano le abitudini e i costumi primordiali del paese. Dunque Borges affronta questo tema facendo del tango il mezzo per la riconquista di un’identità che con il tempo si è perduta; questo perché il tango è uno dei pochi elementi, forse l’unico, che permane nella cultura argentina, nonostante le diverse vicissitudini che il paese attraversa nel corso della sua storia. Sono numerose le questioni che Borges tratta all’interno delle sue opere, come ad esempio il tema del sobborgo, del recinto, del patio e del rapporto che le architetture domestiche hanno con la luce e con lo spazio esterno ad esse. Nella sua opera più matura intervengono temi quali il labirinto, lo specchio e il sogno, che avvicinano la sua dimensione letteraria più ad un immaginario idealizzato che alla realtà percepita. Lo scopo di questo lavoro è quello di fare una trasposizione di tutti questi elementi attraverso un processo di trasfigurazione della letteratura in un progetto architettonico-compositivo. Un punto fermo e imprescindibile è la ricerca dell’identità, dunque, si è cercato di arrivare ad un progetto di architettura chiaro e riconoscibile per Buenos Aires; un edificio nel quale il cittadino possa identificare sé stesso e la città che egli abita. Il sistema con il quale si intende affrontare questo processo è quello di legare la cultura letteraria argentina e la cultura del tango in un complesso architettonico, affinché il sobborgo, tanto amato da Borges, possa essere “riconquistato”.
Resumo:
La ricerca iniziata all’interno del Laboratorio di Sintesi Finale, e che ha continuato ad approfondirsi parallelamente al progetto durante lo sviluppo della tesi, si è basata sullo studio del tessuto urbano e sulla sperimentazione della sostituzione di porzioni dello stesso come strumento progettuale. Oggi, il patrimonio immobiliare italiano è in gran parte caratterizzato da edifici costruiti nel periodo dell’emergenza, degli anni Cinquanta e Sessanta; la maggior parte di esso è costituito da edilizia che ora necessita di interventi di manutenzione e rinnovo (anche dai punti di vista energetico, impiantistico e sismico), perchè nel periodo della loro realizzazione sono stati usati sistemi costruttivi sbrigativi e si è cercato di ridurre i costi. Si tratta di un fenomeno diffuso che interessa anche la zona della costa dell’Emilia-Romagna: oltre 130 km di riviera caratterizzati da diversi paesaggi che sono il risultato diretto del rapporto uomo-natura. “La presenza e l’azione dell’uomo è ed è stata dominante sul paesaggio costiero mediterraneo, a volte con grande sapienza, equilibrio e rispetto dei luoghi, altre volte con devastante consumo e depauperamento dell’ambiente e delle sue risorse”. Rimini e le sue frazioni fanno parte di un paesaggio fortemente antropizzato, che mostra chiaramente i segni di quegli anni di costruzione privi di pianificazione che hanno favorito lo sviluppo di una serie di nuclei costieri contigui, addensati all’interno di una porzione di territorio delimitata da due linee: quella ferroviaria e quella di costa. Il caso di Viserba è emblematico, perché oggi rappresenta il risultato di una edilizia che ha seguito un’ottica prevalentemente privatistica e speculativa. Il territorio, estremamente parcellizzato e denso, ha favorito la creazione di una sorta di confusione urbana tale da rendere difficilmente riconoscibili i caratteri originari del luogo. Il lungomare è diventato il manifesto di questo intervento, tanto che se si rivolgono le spalle al mare per osservare il primo fronte, ciò che si nota non sono di certo i villini storici, i quali passano inevitabilmente in secondo piano. Il nostro esercizio progettuale si è concentrato proprio sulla fascia litoranea che oggi non dialoga più con il mare, ponendoci come obiettivi, non solo lo sviluppo di una strategia di riqualificazione urbana, ma anche la ricerca di un modo per ristabilire attraverso un nuovo segno urbano, il legame perso tra acqua e terra. Fondamentali per il recupero del rapporto della città con il mare sono stati l’inserimento di spazi destinati alla collettività, percorsi, accessi al mare in grado di ricostituire la facciata marittima e di fungere da legante di un sistema unico che comprende sia la struttura urbana sia la fascia costiera, estendendoci fino alle barriere frangiflutti, che oggi costituiscono solo un limite visivo molto forte. La sfida che, pertanto, è stata lanciata già all’interno del laboratorio era quella di cercare una risposta progettuale, una strategia chiara e condivisa, che aspirasse a risolvere i problemi generati da quegli anni di edificazione “compulsiva” e senza regole all’interno del particolare contesto viserbese. La nostra ricerca è stata supportata dall’approfondimento di un tema comune principale, la sostituzione di tessuto urbano, che è diventato per noi lo strumento chiave per lo sviluppo del progetto. L’analisi si è concentrata, tra i vari aspetti, anche sulla situazione attuale italiana che è apparsa critica e poco incoraggiante a causa del basso livello qualitativo degli edifici nelle principali aree urbane (circa il 35% è stato costruito attorno agli anni Cinquanta ed è inefficiente da diversi punti di vista), della crisi del mercato immobiliare e del disagio sociale derivante da ragioni di vario tipo. L’Italia è un paese eccessivamente radicato a una scelta urbanistica conservativa e perciò ancora molto lontano dalla logica della sostituzione urbana. Quest’ultima può costituire il mezzo per redigere un coraggioso progetto strategico che, nell’ottica del lungo periodo, permetta di delineare un disegno dello sviluppo urbano delle nostre città, migliorandone le loro realtà urbane? Il dibattito oggi è molto acceso. Ed è proprio per tentare di trovare una possibile risposta a questo interrogativo che il nostro esercizio progettuale ha sperimentato questo tipo di intervento.
Resumo:
Scopo. Lo scopo di questo studio è esaminare il problema degli sprechi nelle moderne food supply chain, così da consentire una piena comprensione delle principali cause di inefficienza sistemica nell’industria alimentare e individuare potenziali opportunità di miglioramento. Approccio e Metodologia. Per raggiungere gli obiettivi prefissati la presente trattazione si propone di implementare una ricerca empirica basata sull’analisi di due realtà industriali operanti nel settore alimentare. Nello specifico verranno studiate due aziende integrate rispettivamente nel contesto economico italiano e in quello inglese e operanti a due stadi diversi e complementari della filiera alimentare, quello della produzione e quello della distribuzione. Questo studio incrociato consentirà, auspicabilmente, di portare alla luce quegli elementi chiave necessari per una lettura chiara ed esaustiva delle maggiori sfide che le moderne supply chain si trovano a dover affrontare, in una prospettiva di minimizzazione degli sprechi e di accrescimento del valore per il consumatore. Risultati. I risultati che si prevede di ottenere dall’implementazione di questo studio sono fondamentalmente quattro: 1.Piena comprensione del concetto di spreco nell’industria alimentare. 2.Identificazione dei principali fattori chiave che dovrebbero essere attentamente monitorati con lo scopo di conseguire un’efficace riduzione degli sprechi lungo la filiera alimentare. 3.Analisi critica di quelle che sono le più utilizzate pratiche manageriali e operative nelle moderne aziende alimentari. 4.Individuazione dei potenziali sviluppi che potrebbero essere implementati attraverso l’utilizzo delle più recenti ICT in termini di efficienza della supply chain. Valore della Ricerca. Seppure mediante un’analisi prevalentemente di tipo qualitativo, questa trattazione si prefigge di fornire un contributo nell’ambito del food supply chain management che, data la rilevanza del problema relativo agli sprechi, risulta oggi più attuale che mai. L’originalità di questo studio risiede principalmente nelle fonti dei dati che ne hanno costituito le fondamenta: da un lato la ricerca teorica sviluppata nel Regno Unito, dove lo studio della supply chain è ormai da decenni approfondito nelle più importanti Università; dall’altro la ricerca empirica sviluppata sia presso una delle più importanti e moderne aziende alimentari italiane, che presso uno dei più famosi logistics service provider a livello mondiale.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Negli ultimi anni il mondo del mobile computing ha avuto una vera e propria crescita esponenziale grazie soprattutto all'entrata in scena dello smartphone. In realtà, per essere più precisi, è bene bene sottolineare che gli smartphone esistevano già da tempo ma il loro utilizzo era in particolar modo indirizzato ai professionisti per il quale era, ma continua ad essere tutt'oggi, un valido supporto in campo lavorativo, basti pensare all'importanza della comunicazione via e-mail e non solo. Seppur comunque fossero già presenti da tempo, i primi smartphone non godevano di certo di un touch-screen sofisticato come quello odierno nè in essi erano presenti funzionalità tipiche dei dispositivi che troviamo ad oggi sul mercato. Una svolta decisiva è stata segnata dall'introduzione dell'iPhone e successivamente dell'AppStore, grazie a questi la programmazione per i dispositivi mobile ha preso sempre più piede diventando un vero e proprio business. In un secondo momento alla programmazione nativa si affiancarono le tecnologie web. Questo mio lavoro di tesi si pone l'obiettivo di studiare in primis la struttura, caratteristiche e peculiarità del sistema operativo iOS e analizzare il framework PhoneGap al fine di riuscire a confrontarne i vari aspetti fondamentali anche attraverso lo sviluppo di piccole applicazioni. Così facendo, quindi scendendo nei dettagli di quelle che possono essere le differenze rilevanti, mi pongo l'obiettivo di valutarne relativi pro e contro al fine di fare una scelta del tutto personale tra iOS e PhoneGap.
Resumo:
Il contesto della tesi è quello dello sviluppo di applicazioni grafiche interattive. Si parlerà di come si implementano determinate tecniche per la progettazione di un videogioco basato su un motore grafico 3D. La tesi tratterà sia della teoria delle curve, cercando di spiegare come è possibile descrivere dei percorsi nel calcolatore, giustificando per quale motivo sono stati scelti determinati algoritmi, e sia di quali strumenti sono stati utilizzati per la creazione del videogame, soffermandosi sul funzionamento dell’engine (Unity3D) e fornendo informazioni sull’implementazione del codice. Non saranno escluse dalla tesi informazioni riguardanti lo sviluppo dell’idea e del lato artistico di un videogame.
Resumo:
Obiettivo di questa tesi è descrivere un percorso di creazione di una applicazione mobile per la realizzazione di un software i cui target sono smartphone e tablet. Order Sender è un’App per agenti di commercio presente sui mercati delle piattaforme mobile Android ed iOS.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
Le sperimentazioni riguardanti la produzione di biodiesel da alghe sono state condotte solo in laboratorio o in impianti pilota e il processo produttivo non è ancora stato sviluppato su scala industriale. L’obiettivo di questo lavoro di tesi è stato quello di valutare la potenziale sostenibilità ambientale ed energetica della produzione industriale di biodiesel da microalghe nella realtà danese ipotizzando la coltivazione in fotobioreattori. La tesi ha analizzato le diverse tecnologie attualmente in sperimentazione cercando di metterne in evidenza punti di forza e punti di debolezza. La metodologia applicata in questa tesi per valutare la sostenibilità ambientale ed energetica dei processi analizzati è LCA strumento che permette di effettuare la valutazione sull’intero ciclo di vita di un prodotto o di un processo. L’unità funzionale scelta è 1 MJ di biodiesel. I confini del sistema analizzato comprendono: coltivazione, raccolta, essicazione, estrazione dell’olio, transesterificazione, digestione anaerobica della biomassa residuale e uso del glicerolo ottenuto come sottoprodotto della transesterificazione. Diverse categorie d’impatto sono state analizzate. In questo caso studio, sono stati ipotizzati 24 diversi scenari differenziati in base alle modalità di coltivazione, di raccolta della biomassa, di estrazione dell’olio algale. 1. la produzione di biodiesel da microalghe coltivate in fotobioreattori non appare ancora conveniente né dal punto di vista energetico né da quello ambientale. 2. l’uso di CO2 di scarto e di acque reflue per la coltivazione, fra l’altro non ancora tecnicamente realizzabili, migliorerebbero le prestazioni energetiche ed ambientali del biodiesel da microalghe 3. la valorizzazione di prodotti secondari svolge un ruolo importante nel processo e nel suo sviluppo su larga scala Si conclude ricordando che il progetto di tesi è stato svolto in collaborazione con la Danish Technical University of Denmark (DTU) svolgendo presso tale università un periodo di tirocinio per tesi di sei mesi
Resumo:
L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.