984 resultados para restauro, Verucchio, Cesena, rocca.
Resumo:
Questa Tesi aspira a mostrare un codice a livello di pacchetto, che abbia performance molto vicine a quello ottimo, per progetti di comunicazioni Satellitari. L’altro scopo di questa Tesi è quello di capire se rimane ancora molto più difficile maneggiare direttamente gli errori piuttosto che le erasures. Le applicazioni per comunicazioni satellitari ora come ora usano tutte packet erasure coding per codificare e decodificare l’informazione. La struttura dell’erasure decoding è molto semplice, perché abbiamo solamente bisogno di un Cyclic Redundancy Check (CRC) per realizzarla. Il problema nasce quando abbiamo pacchetti di dimensioni medie o piccole (per esempio più piccole di 100 bits) perché in queste situazioni il costo del CRC risulta essere troppo dispendioso. La soluzione la possiamo trovare utilizzando il Vector Symbol Decoding (VSD) per raggiungere le stesse performance degli erasure codes, ma senza la necessità di usare il CRC. Per prima cosa viene fatta una breve introduzione su come è nata e su come si è evoluta la codifica a livello di pacchetto. In seguito è stato introdotto il canale q-ary Symmetric Channel (qSC), con sia la derivazione della sua capacità che quella del suo Random Coding Bound (RCB). VSD è stato poi proposto con la speranza di superare in prestazioni il Verification Based Decoding (VBD) su il canale qSC. Infine, le effettive performance del VSD sono state stimate via simulazioni numeriche. I possibili miglioramenti delle performance, per quanto riguarda il VBD sono state discusse, come anche le possibili applicazioni future. Inoltre abbiamo anche risposto alla domande se è ancora così tanto più difficile maneggiare gli errori piuttosto che le erasure.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Il complesso residenziale “Pilastro” costruito tra il 1962 e il 1985 si trova a Bologna, a nord del quartiere San Donato, oltre la linea tracciata dalla tangenziale e si è costituito in tre fasi, corrispondenti ai tre comparti di intervento: il nucleo di prima realizzazione, il “Virgolone” e le torri. Il tema affrontato in questa tesi, elaborato all’interno del laboratorio di sintesi finale Architettura sostenibile, riguarda la definizione di strategie di intervento per la riqualificazione del comparto di “Primo impianto” che attualmente presenta molteplici criticità: - debole coesione sociale ed episodi di disagio e micro-criminalità - inadeguatezza sismica - scarse prestazioni energetiche degli edifici Il progetto si è proposto l’obbiettivo di ricucire e rifunzionalizzare l’intero comparto, investendo in modo integrato gli aspetti urbanistico, architettonico e tecnologico, in modo da influire positivamente sulle condizioni socio-economiche dell’insediamento.
Resumo:
Questa ricerca presenta i risultati di una indagine volta a verificare la reale efficacia di rinforzo corticale su rocce carbonatiche di differenti caratteristiche mineralogiche, utilizzando consolidanti inorganici in soluzione acquosa quali l’Ossalato Ammonico (AmOX) e il Diammonio Fosfato Acido (DAHP). Le matrici carbonatiche scelte sono quelle del marmo invecchiato e una biomicrite. Sui campioni sono state effettuate indagini (SEM,MIP,XRD,MO,TG-DTA) di caratterizzazione prima e dopo i trattamenti volte a valutare eventuali effetti di rinforzo e misure fisiche di suscettività all’acqua. L’efficacia dei consolidanti inorganici è stata comparata con diversi consolidanti organici e ibridi presenti in commercio ed utilizzati in ambito conservativo. L'efficacia si è mostrata fortemente legata al fabric del materiale e alle modalità di strutturazione del prodotto di neomineralizzazione all’interno della compagine deteriorata. Nel caso del trattamento con AmOx il soluzione acquosa al 4%, la whewellite è l’unica fase di neoformazione riscontrata; la sua crescita avviene con un meccanismo essenzialmente topochimico. Nei materiali carbonatici compatti si possono ottenere solo modesti spessori di coating di neoformazione; per le rocce porose, contenenti difetti come lesioni, pori o micro-fratture, l’efficacia del trattamento può risultare più incisiva. Questo trattamento presenta lo svantaggio legato alla rapidissima formazione dei cristalli di whewellite che tendono a passivare le superfici impedendo la progressione della reazione; il vantaggio è connesso alla facile applicazione in cantiere. Nel caso del DAHP sulla matrice carbonatica trattata, si formano cluster cristallini contenenti specie più o meno stabili alcune riconducibili all’idrossiapatite. La quantità e qualità delle fasi, varia fortemente in funzione della temperatura, pH, pressione con conseguenze interferenza nelle modalità di accrescimento dei cristalli. Il trattamento alla stato attuale appare comunque di notevole interesse ma allo stesso tempo difficilmente applicabile e controllabile nelle reali condizioni operative di un cantiere di restauro.
Resumo:
Le reti di oggetti intelligenti costituiscono una realtà che si sta affermando nel mondo quotidiano. Dispositivi capaci di comunicare tra loro, oltre che svolgere la propria funzione primaria, possono comporre una nuvola che faccia riferimento al legittimo proprietario. Un aspetto fondamentale di questo scenario riguarda la sicurezza, in particolar modo per garantire una comunicazione protetta. Il soddisfacimento di questo requisito è fondamentale anche per altri punti come l'integrità dell'informazione condivisa e l'autenticazione. Lo strumento più antico e tutt'ora adatto alla riservatezza di una comunicazione è costituito dalla crittografia. Una tecnica crittografica è schematicamente composta da un algoritmo che, a seconda di una chiave e del messaggio in ingresso, restituisce in uscita un messaggio cifrato, il crittogramma. Questo viene poi inviato e al legittimo destinatario che, essendo in possesso della chiave e dell'algoritmo, lo converte nel messaggio originale. L'obiettivo è rendere impossibile ad un utente malevolo - non dotato di chiave - la ricostruzione del messaggio. L'assunzione che l'algoritmo possa essere noto anche a terze parti concentra l'attenzione sul tema della chiave. La chiave deve essere sufficientemente lunga e casuale, ma soprattutto deve essere nota ai due utenti che intendono instaurare la comunicazione. Quest'ultimo problema, noto come distribuzione della chiave, è stato risolto con il sistema RSA a chiave pubblica. Il costo computazionale di questa tecnica, specialmente in un contesto di dispositivi non caratterizzati da grandi potenze di calcolo, suggerisce però la ricerca di strade alternative e meno onerose. Una soluzione promettente ed attualmente oggetto di studio sembra essere costituita dalle proprietà del canale wireless. Un ponte radio è caratterizzato da una funzione di trasferimento che dipende dall'ambiente in cui ci si trova e, per il teorema di reciprocità, risulta essere lo stesso per i due utenti che l'hanno instaurato. Oggetto della tesi è lo studio ed il confronto di alcune delle tecniche possibili per estrarre una chiave segreta da un mezzo condiviso, come quello del canale wireless. Si presenterà il contesto in cui verrà sviluppato l'elaborato. Si affronteranno in particolare due casi di interesse, costituiti dalla attuale tecnologia di propagazione del segnale a banda stretta (impiegata per la maggior parte delle trasmissioni senza fili) per passare a quella relativamente più recente della banda Ultra-larga (UWB). Verranno poi illustrate delle tecniche per ottenere stringhe di bit dai segnali acquisiti, e saranno proposti dei metodi per la loro correzione da eventuali discordanze. Saranno infine riportate le conclusioni sul lavoro svolto e le possibili strade future.
Resumo:
Nell’ambito del Laboratorio di sintesi finale “ Progetto Buenos Aires”, siamo entrati in contatto con la realtà sociale, culturale ed architettonica sudamericana, che si presenta attualmente molto complessa e dinamica. Partendo dalle dieci conferenze tenute in Sudamerica dal demiurgico Le Corbusier nel 1929, abbiamo intrapreso un’analisi critica dei progetti proposti dall’architetto svizzero al fine di comprendere il suo approccio progettuale in relazione alle specificità urbane di Buenos Aires, Montevideo, San Paolo e Rio de Janeiro. L’obiettivo del corso è stato poi quello di sviluppare un progetto di architettura individuale per la realtà urbana di Buenos Aires e a tal scopo, nel mese di maggio, abbiamo intrapreso un primo viaggio per comprendere direttamente alcuni aspetti legati alla “natura” della città. Con la volontà di cogliere al meglio le articolate ed eterogenee sfaccettature che una metropoli come Buenos Aires può offrire, siamo tornati, nei mesi di ottobre e novembre, per vivere, osservare e studiare la città. Tale esperienza ci ha permesso di acquisire una migliore visione critica e di comprendere con maggiore consapevolezza le sue molteplici sfumature. Al fine di avviare il progetto abbiamo inizialmente svolto ricerche documentali presso la Biblioteca Nacional, la biblioteca del FADU (Facultad de Arquitectura, Disegno y Urbanismo di Buenos Aires), e la biblioteca della Societad Central de Arquitectos ed altri archivi, che ci hanno acconsentito di reperire testi e materiali essenziali non disponibili in Italia. Il percorso è stato arricchito da una serie d’incontri e dibattiti sulla città, i suoi continui cambiamenti e le sue criticità, con architetti e professori della FADU e della Facultad de Arquitectura y Urbanismo de la Universidad de La Plata, quali il professor Miguel Angel Roca, Javier Fernandez Castro e Fernando Aliata. Intrecci che hanno rappresentato un momento di riflessione importante per una visione generale dell’ambiente culturale in cui stavamo lavorando, e hanno proposto alcune chiare idee per un ridisegno generale della città di Buenos Aires e alcune suggestioni per i progetti portati avanti individualmente. Abbiamo avuto inoltre il grande onore di esporre e mostrare i nostri primi elaborati davanti agli studenti e professori delle suddette facoltà, avviando così un momento di scambio e confronto sui diversi approcci metodologici adottati nei due paesi, al tempo stesso così lontani e così vicini. Il coronamento di questa esperienza è stato l’incontro con due figure fondamentali nel processo architettonico argentino del secondo Novecento, l’architetto Justo Solsona e l’architetto Clorindo Testa. La tesi si articola in cinque diversi momenti. Il primo, a scala territoriale, propone una suggestione sui possibili sviluppi della Ciudad autonoma de Buenos Aires, mentre gli altri, sulla base di un’idea di fondo, rappresentano i progetti architettonici sviluppati individualmente.
Resumo:
Ammettere l'eterogeneità di Villa Lugano e Villa Riachuelo significa riconoscere nella totalità di questa zona una serie di realtà differenti, ciascuna delle quali a suo modo ne definisce l'identità. Si possono riconoscere gli interventi di edilizia popolare del secondo dopoguerra, come il Barrio General Belgrano per citare il più vistoso, un tessuto omogeneo di residenze di massimo cinque piani, il grande parco dell'autodromo e quello del campo da golf, la ferrovia in disuso, l'autostrada che taglia in due il quartiere e separa nettamente la parte "civile" da quella considerata illegale: le villas miserias. Rispettare le diverse realtà che convivono all'interno del quartiere è un primo passo per capire la complessità del territorio su cui si opera, e capire come riuscire a farle comunicare e relazionarsi in maniera più diretta ed efficace può essere un modo per risolvere quelle situazioni di isolamento sociale ed economico che si stanno subendo in entrambe le parti. L'idea progettuale è quella di rimediare a questa frattura e di ridare spazio vitale al denso tessuto urbano connettendo con una fascia verde il parco fino a Ciudad Oculta, situata alla parte opposta del barrio.