586 resultados para DSA,problemi matematici,didattica personalizzata e individualizzata,consegne modificate
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Lo studio della turbolenza è di fondamentale importanza non solo per la fluidodinamica teorica ma anche perchè viene riscontrata in una moltitudine di problemi di interesse ingegneristico. All'aumentare del numero di Reynolds, le scale caratteristiche tendono a ridurre le loro dimensioni assolute. Nella fluidodinamica sperimentale già da lungo tempo si è affermata l'anemometria a filo caldo, grazie ad ottime caratteristiche di risoluzione spaziale e temporale. Questa tecnica, caratterizzata da un basso costo e da una relativa semplicità, rende possibile la realizzazione di sensori di tipo artigianale, che hanno il vantaggio di poter essere relizzati in dimensioni inferiori. Nonostante l'ottima risoluzione spaziale degli hot-wire, infatti, si può verificare, ad alto numero di Reynolds, che le dimensioni dell'elemento sensibile siano superiori a quelle delle piccole scale. Questo impedisce al sensore di risolvere correttamente le strutture più piccole. Per questa tesi di laurea è stato allestito un laboratorio per la costruzione di sensori a filo caldo con filo di platino. Sono in questo modo stati realizzati diversi sensori dalle dimensioni caratteristiche inferiori a quelle dei sensori disponibili commercialmente. I sensori ottenuti sono quindi stati testati in un getto turbolento, dapprima confrontandone la risposta con un sensore di tipo commerciale, per verificarne il corretto funzionamento. In seguito si sono eseguite misure più specifiche e limitate ad alcune particolari zone all'interno del campo di moto, dove è probabile riscontrare effetti di risoluzione spaziale. Sono stati analizzati gli effetti della dimensione fisica del sensore sui momenti statistici centrali, sugli spettri di velocità e sulle funzioni di densità di probabilità.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Oggetto della tesi di laurea è la riqualificazione energetica e funzionale dell’ex asilo Santarelli a Forlì. Il complesso sorge su un area al margine del tracciato delle mura storiche della città dove erano collocati gli orti medievali. Promosso dalla collettività e da numerosi enti caritatevoli come primo asilo laico della città, l’edificio venne progettato nel 1934 dall’ing Guido Savini, secondo i caratteri stilistici e compositivi dell’architettura razionalista e inaugurato da donna Rachele Mussolini nel 1937. L’edificio, di proprietà dell’O.A.S.I. A.S.P., ha svolto la sua attività educativa fino alla sua chiusura avvenuta a giugno 2012, a causa degli gli elevati costi di gestione e per l’inidoneità della struttura alle attuali necessità. L’amministrazione comunale ha manifestato l’intenzione di recuperare l’immobile, soggetto al parere della soprintendenza, prevedendo di ospitare nuove funzioni didattiche, a conferma della sua destinazione storica, ma organizzate in base alle esigenze attuali, secondo il principio dell’economicità. Dalle analisi urbane è emerso che il quartiere dispone di servizi quali il museo San Domenico, la casa di riposo e il parco Franco Agosto, ma che al contempo la sua posizione marginale e la struttura della viabilità lo rendono un punto di passaggio automobilistico tra la periferia e il centro storico. Per la formulazione di un programma funzionale si è condotta un’indagine sia sugli attuali servizi didattici che gli indirizzi di sviluppo sociale offerti dall’amministrazione, ha fatto emergere una carenza degli spazi verdi all’interno delle scuole e la presenza di un programma di sviluppo degli orti urbani nelle aree di proprietà comunali. Al fine di rispondere alle esigenze della pubblica amministrazione si è deciso di formulare una proposta di intervento su due livelli. Il primo mediante una ridefinizione fisica del rapporto tra l’edificio, il quartiere e il sistema della mobilità. Il secondo attraverso una proposta funzionale che potesse coinvolgere non solo gli studenti ma tutta la cittadinanza. Per la ridefinizione del rapporto tra l’edificio e il quartiere si è deciso di eliminare l’isolamento dell’edificio imposto dalla recinzione esistente, mediante la 8 realizzazione di nuovi varchi di accesso. Diventa così possibile proporre un nuovo percorso pedonale inserito all’interno dell’area verde dell’edificio. In prossimità dell’accesso su via Val Verde, è stato realizzato un ambiente filtro a relazione tra la città e il verde privato.Per migliorare l’accessibilità, favorire il coinvolgimento del pubblico e promuovere l’interazione con le aree verdi circostanti, si sono definiti dei concetti chiave: chiusura, connessione tra le preesistenze, varco, permeabilità visiva, organicità. La tensostruttura, caratteristica per sua flessibilità, leggerezza e trasparenza, è stato l’elemento scelto per rispondere alle esigenze, permettendo al contempo di distinguere l’intervento dalle preesistenze. Il nuovo programma funzionale suddivide l’edificio in tre zone autonome, così da affiancare alla didattica, una zona pubblica per offrire uno spazio a disposizione della comunità e una commerciale per garantire una quota di risorse finanziarie alla gestione dell’immobile. Nello specifico, la didattica è stata specializzata per l‘insegnamento dell’orticultura, al fine di promuovere l’educazione della sostenibilità ambientale, la valorizzazione degli spazi verdi e la promozione dei prodotti del territorio. L’ispirazione scaturisce dal primo orto didattico nato in America a metà degli anni ‘90 ad opera dello chef Alice Waters, precursore degli attuali sviluppi didattici e sociali all’interno delle scuole. Il recupero di alcune funzioni originali ha favorito la tripartizione dell’edificio, inoltre la disponibilità di più accessi esistenti ha garantito la possibilità di rendere autonoma le tre zone. Le aule sono state collegate direttamente con l’esterno ed il problema del dislivello con il giardino, è stato risolto realizzando un porticato coperto, che dilata lo spazio didattico sull’esterno. Il solarium, nonostante fosse abbandonato da anni, grazie alla sua posizione privilegiata per l’osservazione del parco e della città è stato recuperando inserendolo come nuovo punto di sosta nel sistema dei percorsi pubblici. Per questo è stato necessario progettare un corpo scale esterno per rendere accessibile ed autonomo l’ambiente. L’ultimo aspetto affrontato è l’intervento di retrofit energetico, pensato in varie fasi per essere il meno invasivo possibile sull’immobile, prevede l’installazione di un sistema di ventilazione meccanica, un isolamento termico interno di 10cm in lana di roccia montata 9 meccanicamente e la sostituzione di tutti gli infissi non originali con soluzioni più performanti. Per raggiungere la classe A è stato necessario intervenire anche sugli impianti, introducendo un sistema autonomo per la zona commerciale e la sostituzione di tutti i terminali radianti. Considerando l’elevato fabbisogno di energia primaria si è integrata una parte questa mediante l’utilizzo di fonti rinnovabili quali fotovoltaico e solare termico. patrimonio storico, adattandolo alle nuove necessità e dimostrando come sia possibile la trasformazione di un edificio fortemente energivoro in una con ridotto fabbisogno energetico senza stravolgere la struttura e aggiungendo qualità e valore.
Resumo:
La ricerca iniziata all’interno del Laboratorio di Sintesi Finale, e che ha continuato ad approfondirsi parallelamente al progetto durante lo sviluppo della tesi, si è basata sullo studio del tessuto urbano e sulla sperimentazione della sostituzione di porzioni dello stesso come strumento progettuale. Oggi, il patrimonio immobiliare italiano è in gran parte caratterizzato da edifici costruiti nel periodo dell’emergenza, degli anni Cinquanta e Sessanta; la maggior parte di esso è costituito da edilizia che ora necessita di interventi di manutenzione e rinnovo (anche dai punti di vista energetico, impiantistico e sismico), perchè nel periodo della loro realizzazione sono stati usati sistemi costruttivi sbrigativi e si è cercato di ridurre i costi. Si tratta di un fenomeno diffuso che interessa anche la zona della costa dell’Emilia-Romagna: oltre 130 km di riviera caratterizzati da diversi paesaggi che sono il risultato diretto del rapporto uomo-natura. “La presenza e l’azione dell’uomo è ed è stata dominante sul paesaggio costiero mediterraneo, a volte con grande sapienza, equilibrio e rispetto dei luoghi, altre volte con devastante consumo e depauperamento dell’ambiente e delle sue risorse”. Rimini e le sue frazioni fanno parte di un paesaggio fortemente antropizzato, che mostra chiaramente i segni di quegli anni di costruzione privi di pianificazione che hanno favorito lo sviluppo di una serie di nuclei costieri contigui, addensati all’interno di una porzione di territorio delimitata da due linee: quella ferroviaria e quella di costa. Il caso di Viserba è emblematico, perché oggi rappresenta il risultato di una edilizia che ha seguito un’ottica prevalentemente privatistica e speculativa. Il territorio, estremamente parcellizzato e denso, ha favorito la creazione di una sorta di confusione urbana tale da rendere difficilmente riconoscibili i caratteri originari del luogo. Il lungomare è diventato il manifesto di questo intervento, tanto che se si rivolgono le spalle al mare per osservare il primo fronte, ciò che si nota non sono di certo i villini storici, i quali passano inevitabilmente in secondo piano. Il nostro esercizio progettuale si è concentrato proprio sulla fascia litoranea che oggi non dialoga più con il mare, ponendoci come obiettivi, non solo lo sviluppo di una strategia di riqualificazione urbana, ma anche la ricerca di un modo per ristabilire attraverso un nuovo segno urbano, il legame perso tra acqua e terra. Fondamentali per il recupero del rapporto della città con il mare sono stati l’inserimento di spazi destinati alla collettività, percorsi, accessi al mare in grado di ricostituire la facciata marittima e di fungere da legante di un sistema unico che comprende sia la struttura urbana sia la fascia costiera, estendendoci fino alle barriere frangiflutti, che oggi costituiscono solo un limite visivo molto forte. La sfida che, pertanto, è stata lanciata già all’interno del laboratorio era quella di cercare una risposta progettuale, una strategia chiara e condivisa, che aspirasse a risolvere i problemi generati da quegli anni di edificazione “compulsiva” e senza regole all’interno del particolare contesto viserbese. La nostra ricerca è stata supportata dall’approfondimento di un tema comune principale, la sostituzione di tessuto urbano, che è diventato per noi lo strumento chiave per lo sviluppo del progetto. L’analisi si è concentrata, tra i vari aspetti, anche sulla situazione attuale italiana che è apparsa critica e poco incoraggiante a causa del basso livello qualitativo degli edifici nelle principali aree urbane (circa il 35% è stato costruito attorno agli anni Cinquanta ed è inefficiente da diversi punti di vista), della crisi del mercato immobiliare e del disagio sociale derivante da ragioni di vario tipo. L’Italia è un paese eccessivamente radicato a una scelta urbanistica conservativa e perciò ancora molto lontano dalla logica della sostituzione urbana. Quest’ultima può costituire il mezzo per redigere un coraggioso progetto strategico che, nell’ottica del lungo periodo, permetta di delineare un disegno dello sviluppo urbano delle nostre città, migliorandone le loro realtà urbane? Il dibattito oggi è molto acceso. Ed è proprio per tentare di trovare una possibile risposta a questo interrogativo che il nostro esercizio progettuale ha sperimentato questo tipo di intervento.
Resumo:
I sistemi mobili rappresentano una classe di sistemi distribuiti caratterizzata dalla presenza di dispositivi portatili eterogenei quali PDA, laptop e telefoni cellulari che interagiscono tra loro mediante una rete di interconnessione wireless. Una classe di sistemi mobili di particolare interesse è costituita dai sistemi basati sul modello di interazione publish/subscribe. Secondo tale schema, i nodi all'interno di una rete possono assumere due ruoli differenti: i produttori di informazione, chiamati publisher, ed i consumatori di informazione, chiamati subscriber. Tipicamente, l'interazione tra essi è mediata da un gestore di eventi che indirizza correttamente le informazioni ricevute dai publisher verso i subscriber interessati, sulla base degli interessi espressi da questi ultimi tramite sottoscrizioni. Nella progettazione di sistemi mobili, a differenza di quelli tradizionali basati su nodi fissi, bisogna tenere conto di problemi quali la scarsa capacità computazionale dei dispositivi e la limitata larghezza di banda delle reti wireless. All'interno di tale ambito, stanno recentemente assumendo sempre maggiore importanza i sistemi context-aware, ovvero sistemi mobili che sfruttano i dati provenienti dall'ambiente circostante e dai dispositivi stessi per adattare il proprio comportamento e notificare agli utenti la presenza di informazioni potenzialmente utili. Nello studio di questi sistemi, si è notato che i nodi che si trovano nella stessa area geografica generano tipicamente delle sottoscrizioni che presentano tra loro un certo grado di similarità e coperture parziali o totali. Il gruppo di ricerca del DEIS dell’Università di Bologna ha sviluppato un'infrastruttura di supporto per sistemi mobili context-aware, chiamata SALES. Attualmente il sistema progettato non considera le similarità delle sottoscrizioni e quindi non sfrutta opportunamente tale informazione. In questo contesto si rende necessario l'adozione di opportune tecniche di aggregazione delle sottoscrizioni atte ad alleggerire la computazione dei nodi mobili e le comunicazioni tra loro. Il lavoro presentato in questa tesi sarà finalizzato alla ricerca, all'adattamento ed all'implementazione di una tecnica di aggregazione delle sottoscrizioni. Tale tecnica avrà lo scopo di rilevare e sfruttare le similarità delle sottoscrizioni ricevute dal sistema al fine di ridurne il numero; in questo modo, quando un nodo riceverà un dato, il processo di confronto tra l'insieme delle sottoscrizioni memorizzate e il dato ricevuto sarà più leggero, consentendo un risparmio di risorse computazionali. Inoltre, adattando tali tecniche, sarà possibile modulare anche il traffico dati scaturito dalle risposte alle sottoscrizioni. La struttura di questa tesi prevede un primo capitolo sui sistemi context-aware, descrivendone le principali caratteristiche e mettendo in luce le problematiche ad essi associate. Il secondo capitolo illustra il modello di comunicazione Publish/Subscribe, modello di riferimento per i moderni sistemi context-aware e per i sistemi mobili in generale. Il terzo capitolo descrive l'infrastruttura SALES sulla quale si è progettata, implementata e testata la soluzione proposta in questa tesi. Il quarto capitolo presenta le principali tecniche di aggregazione delle sottoscrizioni e spiega come possono essere adattate al contesto di questa tesi. Il quinto capitolo effettua l'analisi dei requisiti per comprendere meglio il comportamento della soluzione; seguono la progettazione e l’implementazione della soluzione su SALES. Infine, il sesto capitolo riporta in dettaglio i risultati ottenuti da alcuni degli esperimenti effettuati e vengono messi a confronto con quelli rilevati dal sistema di partenza.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
Tesi interdisciplinare che coniuga due importanti ambiti della Matematica: il Calcolo Numerico e la Didattica della Matematica. Alcuni algoritmi utilizzati per il web information retrieval sono stati introdotti all'interno di due classi di scuola superiore avvalendosi del programma di calcolo Matlab.
Resumo:
Questo lavoro si presenta come un’indagine pluridisciplinare fra metrica,linguistica,letteratura e didattica, in cui la rima n’è l’oggetto e il filo conduttore. Attraverso questa ricerca si tenta di mostrare la capacità della rima di costituire un ponte fra espressione e contenuto, di allargare così il bagaglio non solo linguistico del fruitore, ma anche quello conoscitivo. Partendo dall’ambito linguistico e metrico, si analizza in prima istanza, l’apporto pratico che la rima ha avuto nell’evoluzione delle lingue volgari indoeuropee, per poi diventare il mezzo più semplice e istintivo per strutturare il verso poetico. Si passa così da un contesto folklorico ad uno colto, percorrendo tutti i secoli della nostra storia letteraria. Nella seconda parte la materia metrica cede il posto a quella didattico – pedagogica, e il passaggio è facilitato dalla poesia novecentesca che rimette in discussione il ruolo della rima, e la vede come il mezzo perfetto d’associazione fra parole, non solo di suono, ma anche di senso. A questo risponde la teoria del “binomio fantastico” di cui si avvale Gianni Rodari per creare le sue filastrocche, ed educare divertendo i suoi alunni. La rima con la sua omofonia finale, col suo accostamento casuale, concentra l’attenzione del bambino su di se e lo fa entrare a contatto col mondo delle parole, con la potenza della lingua.
Resumo:
Questa trattazione si propone di fornire una spiegazione del fenomeno di Gibbs in termini matematici. Con l'espressione fenomeno di Gibbs intendiamo la presenza di forti oscillazioni nei polinomi di Fourier di una funzione con discontinuità di prima specie. Si osserva che queste anomalie, presenti vicino ai punti di discontinuità, non sembrano diminuire aumentando il grado del polinomio, al punto che la serie pare non convergere alla funzione sviluppata. Osserveremo che utilizzando un altro tipo di polinomi trigonometrici, quelli di Fejér in luogo di quelli di Fourier, scomparirà il fenomeno di Gibbs. Nonostante ciò, spesso si preferisce rappresentare una funzione utilizzando il suo polinomio di Fourier poiché questo è il polinomio trigonometrico che meglio approssima la funzione in norma quadratica.
Resumo:
Il progetto di valorizzazione dell’area del parco archeologico dell’anfiteatro romano di Ancona affronta il problema del recupero delle zone lacerate del centro antico della città, di quelle aree che in seguito ai bombardamenti della Seconda Guerra Mondiale e del terremoto del 1972 hanno perso la loro identità. Dopo aver analizzato le fasi evolutive della struttura urbana della città e il sistema di relazioni sociali che la caratterizza, il progetto ha individuato nella zona dell’ex convento di Santa Palazia, sul versante ovest del colle Guasco e attigua al parco archeologico dell’anfiteatro romano, il sito idoneo per la localizzazione di un nuovo complesso architettonico. È prevista la realizzazione di residenze, spazi per la didattica e per la cultura, attività di servizio e commerciale e la realizzazione della sede del nuovo Museo d’Arte Contemporanea della Regione Marche. Il progetto definisce un macrosistema in grado di mettere ordine e porre in relazione, attraverso spazi condivisi, edifici primari (come l’anfiteatro, la chiesa dei SS Pellegrino e Teresa e il Museo Archeologico), siti archeologici, edifici pubblici legati alla archeologia, ed edifici privati, prevalentemente ad uso residenziale. Ridisegna la città facendo della misura dell’eccellenza del passato di Ancona, la misura del nuovo progetto per recuperare l’identità perduta.
Resumo:
L’acido adipico (AA) è un importante intermedio chimico prodotto in quantità pari a circa tre milioni di tonnellate annue, i cui usi riguardano principalmente la produzione di Nylon-6,6. Tutti i processi industriali odierni per la produzione dell’AA hanno in comune lo stadio finale di ossidazione con acido nitrico dell’ultimo intermedio di sintesi, che in genere è una miscela di cicloesanolo e cicloesanone (KA Oil). Esistono diversi problemi riguardanti questo processo, come la pericolosità che deriva dall’uso di acido nitrico concentrato. Dal punto di vista ambientale, il problema principale riguarda la produzione di protossido di azoto e di altri ossidi di azoto durante l’ultima fase di ossidazione con HNO3, per questo motivo, tutte le aziende che producono AA devono essere munite per legge di sistemi di abbattimento quantitativi o di recupero degli ossidi di azoto, che però risultano essere molto incisivi sul costo del processo. A livello industriale, quindi, il problema riguarda principalmente la sostenibilità economica, ma poiché queste procedure hanno un prezzo in termini di materiali ed energia, si ha anche un forte legame con la sostenibilità ambientale. Gli studi riguardanti nuovi processi per la produzione di AA sono numerosi; alcuni hanno portato a vie più “green”, ma solo pochi esempi sono veramente sostenibili dal punto di vista sia ambientale che economico. Il presente lavoro di tesi è diviso in due parti, entrambe riguardanti vie di sintesi alternative per la produzione di AA. La prima parte riguarda lo studio del secondo passaggio di una via di sintesi in due step che parte da cicloesene e che ha come intermedio l’1,2-cicloesandiolo.Sono stati provati catalizzatori eterogenei a base di nanoparticelle di Au supportate su MgO per il cleavage ossidativo in fase liquida del diolo con O2 in ambiente basico. La seconda parte invece riguarda il processo di sintesi dell’AA a partire da cicloesanone mediante l’ossidazione con perossido di idrogeno a e- caprolattone e la successiva ossidazione ad AA. Nello specifico, è stato studiato il meccanismo di reazione del primo passaggio in quanto evidenze sperimentali ottenute nel corso di lavori precedenti avevano dimostrato la presenza di un cammino di reazione differente da quello tipico per un’ossidazione di Baeyer-Villiger. In questa parte, si è studiato l’effetto di alcuni catalizzatori eterogenei a base di acidi di Lewis sui prodotti ottenuti nel primo stadio ossidativo.
Resumo:
Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.
Resumo:
Fornisce una breve trattazione di due tipi di modelli matematici applicabili nel campo dell'epidemologia, prendendo spunto da un articolo del biologo matematico A. Korobeinikov, "Lyapunov function and global properties for SEIR and SEIS epidemic models".
Resumo:
La tesi è orientata ad elaborare un’introduzione alla geometria algebrica particolarmente rivolta agli strumenti di algebra commutativa, al fine di affrontare i problemi descritti nell'ultimo paragrafo. A partire da testi basilari per l’argomento, come [A, MD] e [Ha], si introdurrà la nozione di spettro di un anello e si andranno a studiare vari casi che costituiscono una buona base per avere un panorama delle possibili strutture che si generano come schemi associati ad un anello e se ne studieranno le proprietà caratteristiche. In particolare, si analizzeranno proprietà di irriducibilità, finitezza e altro, in connessione con quelle degli anelli commutativi. Una particolare attenzione viene poi rivolta agli schemi 0-dimensionali, alle loro diverse immersioni negli spazi proiettivi ed ai problemi aperti ad essi connessi (es. determinazione della funzione di Hilbert). In questo ambito molti problemi aperti rimangono anche per questioni di semplice formulazione (ad esempio sulla dimensione di particolari spazi lineari di curve piane definite dall'imposizione di singolarità lungo schemi 0-dimensionali).