1000 resultados para Ribes rosso,Prodotti funzionali,Tecniche estrattive,Prodotti a base di carne
Resumo:
Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.
Resumo:
La tesi analizza le principali metodologie e tecniche per il recupero e il consolidamento di edifici in muratura esistenti. Dopo un’iniziale descrizione dei materiali costituenti e delle possibili tipologie costruttive, si evidenziano le caratteristiche meccaniche e le verifiche da attuare in base alle normative vigenti. Vengono poi analizzati i principali elementi strutturali e le norme generali per gli edifici in muratura, nonché i possibili metodi di intervento in base al livello di conoscenza delle costruzioni esistenti. Infine, dopo aver presentato le più importanti indagini e prove, vengono descritte le principali tecniche di consolidamento e i criteri per gli interventi sugli edifici in muratura.
Resumo:
Chiunque visiti il Castello di Sorrivoli, può percepire lo straordinario valore testimoniale di questo monumento, dall’aspetto “venerando e pittoresco”, che racchiude in sé quasi mille anni di storia. Il continuo utilizzo del castello, le piccole opere di manutenzione e le campagne di restauro hanno garantito la trasmissione al presente di apparati tipici dell’architettura bellica medievale e del palatium residenziale, ma soprattutto hanno reso possibile leggere parte di questi mille anni direttamente sulla fabbrica. Quello che invece colpisce negativamente è come il castello abbia dovuto adattarsi alle nuove funzioni, imposte aprioristicamente negli ultimi decenni e non viceversa. Spazi straordinari sono stati compromessi, gran parte delle sale sono utilizzate come deposito e le ali del castello, che non possono essere ragionevolmente sfruttate dalla comunità religiosa, si trovano in uno stato di conservazione pessimo, mettendo così a repentaglio la possibilità di continuare questa traditio, intesa col significato latino di tradere ai posteri la memoria del castello. L’approccio alla fabbrica richiedeva dunque, oltre agli interventi sui paramenti, una nuova destinazione d’uso che, coinvolgendo tutto il castello, ne valorizzasse le spazialità e soprattutto permettesse la conservazione di tutte le sue parti costitutive. In secondo luogo, la nuova ipotesi aspirava a confrontarsi con una situazione realistica e sostenibile dal punto di vista della gestione del complesso. Dopo aver valutato quelle che erano le opportunità offerte dal territorio e le vocazioni d’uso del castello stesso, è quindi emersa la necessità di avere due livelli di fruizione, uno che permettesse a tutti di conoscere e visitare il castello e le sue parti più significative e il secondo più materiale, legato alla presenza di tutti quei servizi che rendono confortevole la permanenza delle persone. Per queste ragioni il percorso ha inizio nel parco, con una lettura complessiva del monumento; prosegue, attraverso la postierla, nel piano interrato, dove è allestito un museo virtuale che narra, in maniera interattiva, la storia del castello e termina sulla corte, dove il nuovo volume, che ripropone la spazialità dell’ala crollata, permette di comprendere i legami intrinseci col territorio circostante. La torre centrale assume infine il ruolo di punto culminante di questa ascesa verso la conoscenza del castello, diventando un luogo metaforico di meditazione e osservazione del paesaggio. Il piano terra e il piano primo dell’antico palatium ospitano invece una struttura ricettiva, che aspirando ad un’elevata qualità di servizi offerti, è dotata di punto vendita e degustazione di prodotti tipici e sala conferenze. La scelta di ricostruire l’ala crollata invece, non vuol essere un gesto autografo, ma deriva dall’esigenza di far funzionare al meglio il complesso sistema del castello; sono stati destinati al volume di nuova edificazione quei servizi necessari che però non erano compatibili con la fabbrica antica e soprattutto si è cercato di dar conclusione al racconto iniziato nel giardino. In tal senso la valorizzazione del castello si articola come un percorso di conoscenza che si pone come scopo primario la conservazione del monumento, senza però negare l’innovazione legata alla contemporaneità dell’intervento e alla volontà di volerlo includere in una più ampia dinamica territoriale.
Resumo:
I RAEE (Rifiuti da Apparecchiature Elettriche ed Elettroniche) costituiscono un problema prioritario a livello europeo per quanto riguarda la loro raccolta, stoccaggio, trattamento, recupero e smaltimento, essenzialmente per i seguenti tre motivi: Il primo riguarda le sostanze pericolose contenute nei RAEE. Tali sostanze, nel caso non siano trattate in modo opportuno, possono provocare danni alla salute dell’uomo e all’ambiente. Il secondo è relativo alla vertiginosa crescita relativa al volume di RAEE prodotti annualmente. La crescita è dovuta alla continua e inesorabile commercializzazione di prodotti elettronici nuovi (è sufficiente pensare alle televisioni, ai cellulari, ai computer, …) e con caratteristiche performanti sempre migliori oltre all’accorciamento del ciclo di vita di queste apparecchiature elettriche ed elettroniche (che sempre più spesso vengono sostituiti non a causa del loro malfunzionamento, ma per il limitato livello di performance garantito). Il terzo (ed ultimo) motivo è legato all’ambito economico in quanto, un corretto trattamento dei RAEE, può portare al recupero di materie prime secondarie (alluminio, ferro, acciaio, plastiche, …) da utilizzare per la realizzazione di nuove apparecchiature. Queste materie prime secondarie possono anche essere vendute generando profitti considerevoli in ragione del valore di mercato di esse che risulta essere in costante crescita. Questo meccanismo ha portato a sviluppare un vasto quadro normativo che regolamenta tutto l’ambito dei RAEE dalla raccolta fino al recupero di materiali o al loro smaltimento in discarica. È importante inoltre sottolineare come lo smaltimento in discarica sia da considerarsi come una sorta di ‘ultima spiaggia’, in quanto è una pratica piuttosto inquinante. Per soddisfare le richieste della direttiva l’obiettivo dev’essere quello di commercializzare prodotti che garantiscano un minor impatto ambientale concentrandosi sul processo produttivo, sull’utilizzo di materiali ‘environmentally friendly’ e sulla gestione consona del fine vita. La Direttiva a livello europeo (emanata nel 2002) ha imposto ai Paesi la raccolta differenziata dei RAEE e ha definito anche un obiettivo di raccolta per tutti i suoi Stati Membri, ovvero 4 kg di RAEE raccolti annualmente da ogni abitante. Come riportato di seguito diversi paesi hanno raggiunto l’obiettivo sopra menzionato (l’Italia vi è riuscita nel 2010), ma esistono anche casi di paesi che devono necessariamente migliorare il proprio sistema di raccolta e gestione dei RAEE. Più precisamente in Italia la gestione dei RAEE è regolamentata dal Decreto Legislativo 151/2005 discusso approfonditamente in seguito ed entrato in funzione a partire dal 1° Gennaio 2008. Il sistema italiano è basato sulla ‘multi consortilità’, ovvero esistono diversi Sistemi Collettivi che sono responsabili della gestione dei RAEE per conto dei produttori che aderiscono ad essi. Un altro punto chiave è la responsabilità dei produttori, che si devono impegnare a realizzare prodotti durevoli e che possano essere recuperati o riciclati facilmente. I produttori sono coordinati dal Centro di Coordinamento RAEE (CDC RAEE) che applica e fa rispettare le regole in modo da rendere uniforme la gestione dei RAEE su tutto il territorio italiano. Il documento che segue sarà strutturato in quattro parti. La prima parte è relativa all’inquadramento normativo della tematica dei RAEE sia a livello europeo (con l’analisi della direttiva ROHS 2 sulle sostanze pericolose contenute nei RAEE e la Direttiva RAEE), sia a livello italiano (con un’ampia discussione sul Decreto Legislativo 151/2005 e Accordi di Programma realizzati fra i soggetti coinvolti). La seconda parte tratta invece il sistema di gestione dei RAEE descrivendo tutte le fasi principali come la raccolta, il trasporto e raggruppamento, il trattamento preliminare, lo smontaggio, il riciclaggio e il recupero, il ricondizionamento, il reimpiego e la riparazione. La terza definisce una panoramica delle principali metodologie di smaltimento dei 5 raggruppamenti di RAEE (R1, R2, R3, R4, R5). La quarta ed ultima parte riporta i risultati a livello italiano, europeo ed extra-europeo nella raccolta dei RAEE, avvalendosi dei report annuali redatti dai principali sistemi di gestione dei vari paesi considerati.
Resumo:
Lo scopo di questo lavoro è stato quello di studiare dettagliatamente la reattività dell’N-benzilossicarbonil-1-aza-butadiene, utilizzando diversi dienofili in reazioni di Diels-Alder catalitiche enantioselettive promosse da organocatalizzatori bifunzionali in grado di dare interazioni deboli come legami a idrogeno. Questo 1-azadiene infatti può dare in linea di principio sia prodotti derivanti da reazioni di Diels-Alder a domanda elettronica diretta in cui funge da diene, sia reazioni a domanda elettronica inversa in cui il doppio legame terminale dell’1-azadiene, maggiormente reattivo in quanto meno ingombrato, funge da olefina elettronricca (reazione di Povarov). Per effettuare questo studio sono stati provati vari dienofili tra cui olefine elettron povere bi- e monosostituite che portavano alla degradazione del diene; derivati della malimmide e del pirazolo che davano cilcloaddotti derivanti dalla classica cicloaddizione [4+2] Diels-Alder con ottime conversioni in modo altamente diastereoselettivo, ma bassi eccessi enantiomerici ed infine si sono provate diverse immine che portavano al cicloaddotto della reazione di Povarov con ottimi risultati in termini di conversione e buoni eccessi enantiomerici. Quest’ultima applicazione che permette la sintesi di interessanti prodotti variamente funzionalizzabili, sarà oggetto di studio in futuro per ottimizzare le condizioni della reazione.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
Il documento in questione si pone l'obiettivo di descrivere un esempio di scenario di integrazione tra Alfresco ( ECM open source ) e SugarCRM. Vengono analizzati i vantaggi di una gestione documentale digitale e viene fatta una piccola analisi di mercato per la scelta dei prodotti.
Resumo:
E’ stimato che circa 4.000 sostanze diverse vengano utilizzate nella medicina umana, fra cui soprattutto analgesici, antinfiammatori, contraccettivi, antibiotici, beta-bloccanti, regolatori lipidici, composti neuroattivi e molti altri. Inoltre un elevato numero di farmaci, spesso simili a quelli umani tra cui antibiotici e antinfiammatori, viene usato nella medicina veterinaria. L’uso può essere diverso nei diversi Paesi ma farmaci quali l’ibuprofene, la carbamazepina, o i beta-bloccanti vengono consumati in quantità di tonnellate per anno. Le analisi chimiche hanno riscontrato la presenza dei residui dei farmaci nelle acque reflue dai depuratori, nei fiumi e nei laghi in maniera ubiquitaria a concentrazioni nell’intervallo di 10-1000 ng/L. Come ci si aspetta, i farmaci sono molto concentrati nelle acque reflue degli ospedali, tuttavia la percentuale di farmaci provenienti dagli ospedali è stata valutata complessivamente non oltre il 20% del quantitativo totale. L’origine preponderante dei farmaci proviene dall’uso domiciliare, per cui gli impianti municipali di raccolta delle acqua di rifiuto sono la maggiore via di ingresso in ambiente. Una volta ingeriti e metabolizzati, i farmaci vengono escreti via urine o feci e introdotti nella rete fognaria fino alle sedi di trattamento delle acque. Altra sorgente è rappresentata dalle manifatture dei farmaci, dalle quali possono derivare scarichi illegali o accidentali. Una sorgente importante di farmaci, soprattutto di antibiotici, è rappresentata dagli allevamenti animali, sia in ambienti interni che al pascolo, e dall’acquacoltura. Nel primo caso in particolare vengono prodotti e raccolti una grande quantità di rifiuti, che di solito sono accumulati temporaneamente e poi dispersi sui suoli agricoli. I farmaci presenti nei suoli possono essere trasportati alle acque sotterranee, o dilavati a livello superficiale contribuendo ad aumentare il livello di farmaci nei corsi d’acqua oppure una volta sciolti nell’acqua interstiziale possono essere assunti dai vegetali. Gli impianti di depurazione attuali non sono pianificati per eliminare microinquinanti altamente polari come i farmaci, e in relazione alle differenti molecole la eliminazione può essere in percentuale diversa, spesso anche molto bassa. I test ecotossicologici di tipo acuto utilizzati per molto tempo per valutare la tossicità dei farmaci ambientali hanno riportato effetti soltanto a concentrazioni superiori a quelle ambientali; nei 2-3 anni più recenti tuttavia è stato messo in luce come, già a basse concentrazioni, alcuni farmaci modifichino le attività riproduttive o il metabolismo di pesci e molluschi. Da qui è nata l’esigenza di studiare quale sia la possibile interazione dei residui dei farmaci con la fauna acquatica a concentrazioni compatibili con quelle ambientali, e valutare il meccanismo d’azione sfruttando per quanto possibile le conoscenze disponibili per i farmaci messi in commercio. I farmaci infatti sono composti disegnati per avere effetti terapeutici attraverso specifici meccanismi d’azione. Negli organismi non bersaglio che risultano esposti ai residui dei farmaci in ambiente, queste sostanze potrebbero però indurre effetti simili a quelli specifici nel caso i bersagli molecolari siano stati conservati durante l’evoluzione. Inoltre, i farmaci manifestano effetti collaterali, in genere se usati a dosi elevate o per lungo tempo, e molto spesso si tratta di effetti ossidanti. E’ possibile che tali effetti siano indotti dai farmaci ambientali nei molluschi o nei pesci, magari a basse dosi se questi animali sono più sensibili dell’uomo. Lo scopo di questa tesi è stato quello di valutare nei mitili Mytilus galloprovincialis i potenziali effetti indotti dalla fluoxetina (farmaco antidepressivo), dal propranololo (farmaco β-bloccante), o dalla loro miscela con riferimento a quelli classificati come collaterali nell’uomo. In particolare, è stata studiata l’espressione di geni che codificano per gli enzimi antiossidanti catalasi (CAT), glutatione S transferasi (GST) e superossido dismutasi (SOD), mediatori della risposta allo stress ossidativo. I possibili effetti dei farmaci sono stati valutati dopo esposizione dei mitili Mytilus galloprovincialis per 7 giorni a fluoxetina (FX) e propranololo (PROP) ad un range di concentrazioni che comprendono quelle misurate in ambiente, e alla loro miscela alla concentrazione di 0,3 ng/l, scelta perché rappresentativa delle dosi inferiori dei due farmaci riscontrate in ambiente acquatico. I risultati hanno dimostrato che FX causa una generale diminuzione dell’espressione dei geni CAT, mentre per i geni codificanti per GST e SOD si osservano variazioni significative soltanto ad una concentrazione di FX, 300 e 3 ng/L rispettivamente. La riduzione dei livelli di espressione di CAT non sempre accompagnata dalla significativa variazione dei livelli di espressione di SOD e GST, può indicare che il sistema anti-ossidante non è in grado di adattarsi in modo efficiente all’alterazione indotta dall’esposizione a FX, portando ad un progressivo aumento dei livelli di stress. Per quanto riguarda gli effetti del PROP, i risultati ottenuti mostrano che nei mitili esposti a concentrazioni crescenti del farmaco i geni CAT e SOD risultano progressivamente sovra-espressi rispetto al controllo, anche se in maniera non significativa mentre i livelli di espressione di GST non sono significativamente alterati. I dati ottenuti esponendo i mitili alla miscela dei due farmaci, indicano che FX e PROP possono avere effetti interattivi sulla regolazione dei tre geni coinvolti nella risposta antiossidante. In presenza della miscela si osserva infatti una riduzione significativa dell’espressione del gene CAT, del gene GST mentre non ci sono effetti sul gene SOD. In conclusione, concentrazioni di PROP e FX nell’intervallo di quelle misurate in ambiente possono generare significativi effetti sui geni CAT, GST, e SOD. Come riscontrato nella precedente letteratura, l’attività o l’espressione degli enzimi antiossidanti risente molto dello stato fisiologico dei mitili e della stagionalità, quindi il ruolo degli enzimi antiossidanti come biomarker deve essere interpretato all’interno di batterie più ampie di risposte subletali degli organismi sentinella. Nel laboratorio questi dati sono stati ottenuti in precedenti lavoro di Tesi (Tosarelli, Tesi Magistrale in Biologia Marina, A.A. 2011; Inzolia, Tesi Magistrale in Biologia Marina, A.A. 2011). Le alterazioni ottenute a concentrazioni circa 1.000 volte inferiori rispetto a quelle efficaci nei test ecotossicologici acuti, dimostrano comunque che i farmaci possono avere effetti sugli organismi anche a concentrazioni molto basse come quelle ambientali. In particolare, poiché gli effetti ossidativi sono i più comuni effetti collaterali dei farmaci nell’Uomo che ne assuma elevate quantità o somministrazioni prolungate nel tempo, possiamo affermare che questi hanno luogo anche negli organismi non-target, a concentrazioni basse e dopo soli 7 giorni di esposizione. I dati della tesi non dimostrano che propranololo e fluoxetina hanno effetti deleteri sulle popolazioni o le comunità dei molluschi, ma debbono essere considerati come indicatori della vulnerabilità degli animali a questi composti.
Resumo:
Il paesaggio, e così anche il paesaggio agrario, può essere considerato come segno del rapporto uomo/natura, come costrutto storico che testimonia il succedersi delle diverse civilizzazioni che l'hanno generato, ma anche come spazio per l'immaginazione territoriale, come progetto per il futuro del territorio. In questo lavoro si trattano le relazioni tra questa visione del paesaggio e le forme di produzione e consumo dei prodotti agricoli, nell'ambito delle trasformazioni che l'ambito rurale sta subendo a partire dagli ultimi decenni, tra pressione dell'urbano, da un lato, e abbandono e crisi dell'agricoltura, dall'altro. Particolare attenzione è riservata a quelle esperienze che, attraverso la produzione biologica e lo scambio locale, esprimono un nuovo progetto di territorio, che prende avvio dal contesto rurale ma che pervade anche le città, proponendo anche nuove relazioni tra città e campagna. Nelle reti della filiera corta e dell'economia solidale che si concretizzano soprattutto come esperienze “dal basso”, di autogestione e partecipazione, si diffondono insieme prodotti e valori. In quest'ottica la sostenibilità ambientale non appare più come una fonte di limitazioni e esternalità negative, per dirla con il linguaggio dell'economia, ma diventa un valore aggiunto di appartenenza collettiva (equilibri ecologici, paesaggio) e un'occasione per nuove relazioni sociali e territoriali.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.