446 resultados para Nuove Attribuzioni
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
Le nuove teorie di rete come Software Defined Networking Network Function Virtualization, insieme alle teorie Cognitive/Autonomics consentono di abilitare scenari futuri “disruptive” di rete. Lo scopo di questa tesi è quello di esplorare questi scenari futuri e di capire il ruolo della migrazione di funzioni di rete, sotto forma di Virtual Machine. Si vuole affrontare la migrazione di Virtual Machine dal punto di vista delle performance, ma anche come strumento di gestione delle risorse in uno scenario di rete d'accesso autonomica.
Resumo:
L'ex Palazzo Magi è opera databile attorno al 1773 ed attribuibile al progetto di due importanti architetti di Pesaro, ovvero Gian Andrea Lazzarini e il suo allievo Tommaso Bicciaglia. Quest'ultimo sembra al momento esserne il vero artefice. Commissionato da Francesco Magi sorse su quello che precedentemente era uno spazio pubblico e per questo probabilmente reca lo stemma del Comune di Saludecio nel concio di chiave del portale d'accesso. Negli anni, il Palazzo è stato soggetto a numerosi interventi che ne hanno alterato la percezione e ne hanno occultato parte delle decorazioni. Tramite il progetto, si è intervenuto concettualmente e concretamente in due maniere differenti sul Palazzo e sui due giardini. Per il Palazzo e per il giardino ad esso adiacente, si assumerà un atteggiamento di restauro e conservazione, mentre per il secondo giardino di valorizzazione entrambe volte a rendere possibile la lettura dell’opera nel suo complesso. La galleria del piano nobile, con la sua bellezza e ricchezza, assumerà insieme al giardino adiacente al prospetto secondario, un carattere di rappresentanza differente dal giardino frutteto. Tutti gli interventi di progetto saranno minimi e localizzati contribuendo a far riemergere lo splendore che ha reso il Palazzo degno di esser tutelato. L’intento progettuale è stato quello di inserire i tre nuovi volumi all’interno di un progetto unitario rispettoso della valenza storica dell’edificio preesistente. Per questo si è cercato di stabilire un dialogo tra i nuovi volumi tramite l’utilizzo dei medesimi materiali e del medesimo linguaggio architettonico. Inoltre le nuove costruzioni non alterano in alcun modo l’identità del palazzo cercando piuttosto di diventarne parte integrante.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
Oggetto della tesi di laurea è la riqualificazione energetica e funzionale dell’ex asilo Santarelli a Forlì. Il complesso sorge su un area al margine del tracciato delle mura storiche della città dove erano collocati gli orti medievali. Promosso dalla collettività e da numerosi enti caritatevoli come primo asilo laico della città, l’edificio venne progettato nel 1934 dall’ing Guido Savini, secondo i caratteri stilistici e compositivi dell’architettura razionalista e inaugurato da donna Rachele Mussolini nel 1937. L’edificio, di proprietà dell’O.A.S.I. A.S.P., ha svolto la sua attività educativa fino alla sua chiusura avvenuta a giugno 2012, a causa degli gli elevati costi di gestione e per l’inidoneità della struttura alle attuali necessità. L’amministrazione comunale ha manifestato l’intenzione di recuperare l’immobile, soggetto al parere della soprintendenza, prevedendo di ospitare nuove funzioni didattiche, a conferma della sua destinazione storica, ma organizzate in base alle esigenze attuali, secondo il principio dell’economicità. Dalle analisi urbane è emerso che il quartiere dispone di servizi quali il museo San Domenico, la casa di riposo e il parco Franco Agosto, ma che al contempo la sua posizione marginale e la struttura della viabilità lo rendono un punto di passaggio automobilistico tra la periferia e il centro storico. Per la formulazione di un programma funzionale si è condotta un’indagine sia sugli attuali servizi didattici che gli indirizzi di sviluppo sociale offerti dall’amministrazione, ha fatto emergere una carenza degli spazi verdi all’interno delle scuole e la presenza di un programma di sviluppo degli orti urbani nelle aree di proprietà comunali. Al fine di rispondere alle esigenze della pubblica amministrazione si è deciso di formulare una proposta di intervento su due livelli. Il primo mediante una ridefinizione fisica del rapporto tra l’edificio, il quartiere e il sistema della mobilità. Il secondo attraverso una proposta funzionale che potesse coinvolgere non solo gli studenti ma tutta la cittadinanza. Per la ridefinizione del rapporto tra l’edificio e il quartiere si è deciso di eliminare l’isolamento dell’edificio imposto dalla recinzione esistente, mediante la 8 realizzazione di nuovi varchi di accesso. Diventa così possibile proporre un nuovo percorso pedonale inserito all’interno dell’area verde dell’edificio. In prossimità dell’accesso su via Val Verde, è stato realizzato un ambiente filtro a relazione tra la città e il verde privato.Per migliorare l’accessibilità, favorire il coinvolgimento del pubblico e promuovere l’interazione con le aree verdi circostanti, si sono definiti dei concetti chiave: chiusura, connessione tra le preesistenze, varco, permeabilità visiva, organicità. La tensostruttura, caratteristica per sua flessibilità, leggerezza e trasparenza, è stato l’elemento scelto per rispondere alle esigenze, permettendo al contempo di distinguere l’intervento dalle preesistenze. Il nuovo programma funzionale suddivide l’edificio in tre zone autonome, così da affiancare alla didattica, una zona pubblica per offrire uno spazio a disposizione della comunità e una commerciale per garantire una quota di risorse finanziarie alla gestione dell’immobile. Nello specifico, la didattica è stata specializzata per l‘insegnamento dell’orticultura, al fine di promuovere l’educazione della sostenibilità ambientale, la valorizzazione degli spazi verdi e la promozione dei prodotti del territorio. L’ispirazione scaturisce dal primo orto didattico nato in America a metà degli anni ‘90 ad opera dello chef Alice Waters, precursore degli attuali sviluppi didattici e sociali all’interno delle scuole. Il recupero di alcune funzioni originali ha favorito la tripartizione dell’edificio, inoltre la disponibilità di più accessi esistenti ha garantito la possibilità di rendere autonoma le tre zone. Le aule sono state collegate direttamente con l’esterno ed il problema del dislivello con il giardino, è stato risolto realizzando un porticato coperto, che dilata lo spazio didattico sull’esterno. Il solarium, nonostante fosse abbandonato da anni, grazie alla sua posizione privilegiata per l’osservazione del parco e della città è stato recuperando inserendolo come nuovo punto di sosta nel sistema dei percorsi pubblici. Per questo è stato necessario progettare un corpo scale esterno per rendere accessibile ed autonomo l’ambiente. L’ultimo aspetto affrontato è l’intervento di retrofit energetico, pensato in varie fasi per essere il meno invasivo possibile sull’immobile, prevede l’installazione di un sistema di ventilazione meccanica, un isolamento termico interno di 10cm in lana di roccia montata 9 meccanicamente e la sostituzione di tutti gli infissi non originali con soluzioni più performanti. Per raggiungere la classe A è stato necessario intervenire anche sugli impianti, introducendo un sistema autonomo per la zona commerciale e la sostituzione di tutti i terminali radianti. Considerando l’elevato fabbisogno di energia primaria si è integrata una parte questa mediante l’utilizzo di fonti rinnovabili quali fotovoltaico e solare termico. patrimonio storico, adattandolo alle nuove necessità e dimostrando come sia possibile la trasformazione di un edificio fortemente energivoro in una con ridotto fabbisogno energetico senza stravolgere la struttura e aggiungendo qualità e valore.
Resumo:
Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.
Resumo:
Agricoltura ed Energia sono le due parole cardine attorno a cui ruota questa tesi. La prima si trova ad oggi ad essere investita da enormi aspettative: ha implicazioni economiche, sociali, ambientali e territoriali. Offre opportunità occupazionali nelle aree rurali, favorisce il mantenimento di un tessuto sociale, ha funzioni produttive e di tutela ambientale. In Italia è profondamente diffusa ma mantiene caratteristiche molto differenti legate ai prodotti, al territorio e al paesaggio agrario. Andrebbe quindi meglio conosciuta, tutelata, ma soprattutto rinnovata per essere efficientemente inserita nel contesto dello sviluppo del nostro Paese. Ricercando nuove soluzioni e nuove idee, che dovrebbero essere alla base della ripresa dal periodo di crisi, ci si collega al secondo termine, meglio definito con un aggettivo descrittivo: rinnovabile. L'utilizzo di queste fonti è alla base delle odierne necessità di risparmio energetico e dell'uso razionale delle energie. Il primo passo è annullare gli sprechi incrementando lʼefficienza dei dispositivi che producono energia. Vengono qui analizzate diversi impianti ad energie rinnovabili proposti in un luogo specifico che si presta a vedere le diverse fonti agire in sinergia ed a servizio dell'agricoltura che rimane la vocazione principale del luogo in esame. La sinergia diventa quindi la chiave di lettura della tesi in quanto le rinnovabili sono caratterizzate da una imprevedibile variabilità per cui risulta funzionale un sistema integrativo che porti il progetto finale ad avere una maggiore continuità nel servizio in ogni periodo dell'anno.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
Il lavoro è dedicato all'analisi fisica e alla modellizzazione dello strato limite atmosferico in condizioni stabili. L'obiettivo principale è quello di migliorare i modelli di parametrizzazione della turbulenza attualmente utilizzati dai modelli meteorologici a grande scala. Questi modelli di parametrizzazione della turbolenza consistono nell' esprimere gli stress di Reynolds come funzioni dei campi medi (componenti orizzontali della velocità e temperatura potenziale) usando delle chiusure. La maggior parte delle chiusure sono state sviluppate per i casi quasi-neutrali, e la difficoltà è trattare l'effetto della stabilità in modo rigoroso. Studieremo in dettaglio due differenti modelli di chiusura della turbolenza per lo strato limite stabile basati su assunzioni diverse: uno schema TKE-l (Mellor-Yamada,1982), che è usato nel modello di previsione BOLAM (Bologna Limited Area Model), e uno schema sviluppato recentemente da Mauritsen et al. (2007). Le assunzioni delle chiusure dei due schemi sono analizzate con dati sperimentali provenienti dalla torre di Cabauw in Olanda e dal sito CIBA in Spagna. Questi schemi di parametrizzazione della turbolenza sono quindi inseriti all'interno di un modello colonnare dello strato limite atmosferico, per testare le loro predizioni senza influenze esterne. Il confronto tra i differenti schemi è effettuato su un caso ben documentato in letteratura, il "GABLS1". Per confermare la validità delle predizioni, un dataset tridimensionale è creato simulando lo stesso caso GABLS1 con una Large Eddy Simulation. ARPS (Advanced Regional Prediction System) è stato usato per questo scopo. La stratificazione stabile vincola il passo di griglia, poichè la LES deve essere ad una risoluzione abbastanza elevata affinchè le tipiche scale verticali di moto siano correttamente risolte. Il confronto di questo dataset tridimensionale con le predizioni degli schemi turbolenti permettono di proporre un insieme di nuove chiusure atte a migliorare il modello di turbolenza di BOLAM. Il lavoro è stato compiuto all' ISAC-CNR di Bologna e al LEGI di Grenoble.
Resumo:
Nuovi sviluppi nella comunicazione wireless e nell'elettronica hanno permesso lo sviluppo di dispositivi poco costosi, poco energivori e multifunzione, piccoli in dimensione e in grado di comunicare a breve distanza. Collegati con tecnologie senza fili e disponibili in gran numero, questi sensori hanno offerto opportunità senza precedenti nel monitorare e controllare case, città, e l'ambiente. In aggiunta, i sensori wireless hanno anche una vasta gamma di applicazioni nella sicurezza, generando nuove capacità di riconoscimento e sorveglianza, unite ad altre finalità tattiche. La capacità di localizzazione di questi congegni poi è altamente studiata e ricercata, per applicazioni che vanno dal monitoraggio di incendi,della qualità dell'acqua e dell'agricoltura di precisione alla gestione di inventari, di sistemi anti intrusione, monitoraggio del traffico e di parametri medici. Da questo esteso panorama di utilizzi, è scaturita l'idea di un impiego di queste reti in un contesto particolare. L'esperienza maturata in ambito fieristico mi ha portato a considerare una problematica da sempre sentita, ma che non ha mai trovato soluzioni soddisfacenti o definitive, che è quella della protezione dei beni dai rapinatori. In questo ultimo periodo, dove si assiste ad un progressivo ma repentino calo degli affari dovuto ad una congiuntura economica mondiale sfavorevole, il problema è più avvertito da chi, in vari settori, vede un sempre più basso margine di compensazione ai furti.
Resumo:
Sebbene studiati a fondo, i processi che hanno portato alla formazione ed alla evoluzione delle galassie così come sono osservate nell'Universo attuale non sono ancora del tutto compresi. La visione attuale della storia di formazione delle strutture prevede che il collasso gravitazionale, a partire dalle fluttuazioni di densità primordiali, porti all'innesco della formazione stellare; quindi che un qualche processo intervenga e la interrompa. Diversi studi vedono il principale responsabile di questa brusca interruzione della formazione stellare nei fenomeni di attività nucleare al centro delle galassie (Active Galactic Nuclei, AGN), capaci di fornire l'energia necessaria a impedire il collasso gravitazionale del gas e la formazione di nuove stelle. Uno dei segni della presenza di un tale fenomeno all'interno di una galassia e l'emissione radio dovuta ai fenomeni di accrescimento di gas su buco nero. In questo lavoro di tesi si è studiato l'ambiente delle radio sorgenti nel campo della survey VLA-COSMOS. Partendo da un campione di 1806 radio sorgenti e 1482993 galassie che non presentassero emissione radio, con redshift fotometrici e fotometria provenienti dalla survey COSMOS e dalla sua parte radio (VLA-COSMOS), si è stimata la ricchezza dell'ambiente attorno a ciascuna radio sorgente, contando il numero di galassie senza emissione radio presenti all'interno di un cilindro di raggio di base 1 Mpc e di altezza proporzionale all'errore sul redshift fotometrico di ciascuna radio sorgente, centrato su di essa. Al fine di stimare la significatività dei risultati si è creato un campione di controllo costituito da 1806 galassie che non presentassero emissione radio e si è stimato l'ambiente attorno a ciascuna di esse con lo stesso metodo usato per le radio sorgenti. I risultati mostrano che gli ammassi di galassie aventi al proprio centro una radio sorgente sono significativamente più ricchi di quelli con al proprio centro una galassia senza emissione radio. Tale differenza in ricchezza permane indipendentemente da selezioni basate sul redshift, la massa stellare e il tasso di formazione stellare specifica delle galassie del campione e mostra che gli ammassi di galassie con al proprio centro una radio sorgente dovuta a fenomeni di AGN sono significativamente più ricchi di ammassi con al proprio centro una galassia senza emissione radio. Questo effetto e più marcato per AGN di tipo FR I rispetto ad oggetti di tipo FR II, indicando una correlazione fra potenza dell'AGN e formazione delle strutture. Tali risultati gettano nuova luce sui meccanismi di formazione ed evoluzione delle galassie che prevedono una stretta correlazione tra fenomeni di AGN, formazione stellare ed interruzione della stessa.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
La necessità di raggiungere la sostenibilità ambientale delle produzioni industriali rappresenta un motore di sviluppo per tecnologie impiantistiche innovative e nuove filosofie produttive. Ad esempio, la necessità di promuovere lo smaltimento dei clorofluorocarburi, causa i loro dimostrati effetti dannosi sullo strato di ozono stratosferico, ha promosso lo sviluppo di nuovi processi industriali[1]. In questo ambito ha acquisito sempre maggior importanza la reazione di idrodeclorurazione, in particolare, rivolta alla produzione di idrocarburi fluorurati insaturi che mostrino caratteristiche interessanti per la produzione di polimeri con specifiche proprietà di resistenza meccanica, termica e chimica[2]. In questo lavoro di tesi sono stati studiati catalizzatori innovativi per la reazione di idrodeclorurazione in presenza di H2 di un etere clorofluorurato prodotto dalla Solvay Specialty Polymers Italy (1,2dicloro 1,2,2-trifluoro-1-trifluorometossi etano - AM) per la produzione di perfluorometilviniletere (MVE).
Resumo:
NAVA®, dall’inglese Neurally Adjusted Ventilatory Assist, è una tecnica di monitoraggio e di ventilazione e rappresenta una sofisticata innovazione tecnologica in quanto consente un’assistenza ventilatoria costantemente in armonia con le esigenze del paziente, grazie alla rilevazione diretta dell’attività elettrica del diaframma. Da un punto di vista pratico-operativo, NAVA è un modulo integrativo che si inserisce nelle apparecchiature di ventilazione già esistenti integrandone al meglio le funzionalità. A tale modulo è collegato un sondino nasogastrico nella cui parte distale vi sono elettrodi bipolari. Il sondino viene inserito nell’esofago vicino al diaframma e permette l’acquisizione del segnale Edi (Diaphragmatic Electrical Activity), relativo all’attività elettrica del diaframma. L’attività di quest ultimo è strettamente correlata alla dinamica respiratoria del paziente, in quanto il diaframma, contraendosi, determina il flusso d’aria all’interno delle vie aree. Il segnale Edi acquisito viene usato per interfacciarsi con il ventilatore e grazie speciali algoritmi, il segnale guida il ventilatore permettendo un’assistenza ventilatoria proporzionale e sincrona agli sforzi respiratori del paziente. NAVA è tra le nuove apparecchiature sanitarie ed elettromedicali che la Banca Popolare dell’Emilia Romagna ha recentemente donato al Centro Grandi Ustionati dell’Ospedale Bufalini di Cesena per un valore complessivo di oltre 120.000 euro. NAVA e gli altri strumenti donati sono apparecchiature di ultima generazione destinate a migliorare le possibilità di sopravvivenza dei pazienti più critici, con ustioni e ferite alla cute molto gravi, che necessitano di un’assistenza intensiva. In questo elaborato, nel Capitolo 1, viene presentata la Fisiologia dell’apparato respiratorio e a seguire, nel Capitolo 2, viene descritta la Ventilazione meccanica convenzionale, ancora oggi molto utilizzata. Successivamente, nel Capitolo 3 è illustrata la nuova modalità NAVA. Proseguendo, nel Capitolo 4 si apre un confronto tra le principali differenze tra la NAVA e le precedenti modalità di ventilazione. L’elaborato si conclude con la speranza che NAVA, un’innovazione senza precedenti, non sia limitata ad un investimento potenzialmente utile nel presente della terapia intensiva, ma che la ricerca ad essa correlata possa, in un imminente futuro, aprire la strada a nuove tecnologie ancora più efficienti nella salvaguardia dei pazienti in terapia intensiva.