319 resultados para Logica.
Resumo:
L'obbiettivo della presente tesi curriculare è una lettura di alcuni esami in relazione all'idea di ar-chitettura che la nostra Scuola – la Facoltà di Architettura “Aldo Rossi” – porta avanti: l'architettura come progetto collettivo e unitario nel tempo fondato sui fatti architettonici, ovvero l'architettura come scienza: Noi raccogliamo questa strada dell'architettura come scienza, della formulazione logica dei principi, della meditazione sui fatti architettonici e quindi principalmente sui monumenti e pensiamo di verificarla attraverso una serie di architetti e di opere antiche e moderne che noi scegliamo, su cui operiamo un certo tipo di scelta . Ciò che caratterizza l'architettura come scienza è il metodo progettuale: l'obbiettivo della tesi è pertanto una riflessione sulla teoria della progettazione insegnata nella nostra Scuola – intesa come momento della più generale teoria dell'architettura di Aldo Rossi – ovvero su come essa sia stata seguita per realizzare i progetti presentati. La tesi è così ordinata: una prima parte dedicata alla teoria dell'architettura di Aldo Rossi nella quale vengono indicati i principi, cioè lo scopo che la nostra Scuola di architettura persegue; una seconda parte dedicata alla teoria della progettazione nella quale viene indicato il metodo, cioè lo strumento eminente che la nostra Scuola di architettura utilizza; infine sono presentati i progetti –Laboratorio di sintesi finale: l'architettura del museo; Disegno dell'architettura II; Laboratorio di progettazione architettonica IV; – scelti per mettere in luce le distinte parti di cui il metodo consiste.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
I continui sviluppi nel campo della fabbricazione dei circuiti integrati hanno comportato frequenti travolgimenti nel design, nell’implementazione e nella scalabilità dei device elettronici, così come nel modo di utilizzarli. Anche se la legge di Moore ha anticipato e caratterizzato questo trend nelle ultime decadi, essa stessa si trova a fronteggiare attualmente enormi limitazioni, superabili solo attraverso un diverso approccio nella produzione di chip, consistente in pratica nella sovrapposizione verticale di diversi strati collegati elettricamente attraverso speciali vias. Sul singolo strato, le network on chip sono state suggerite per ovviare le profonde limitazioni dovute allo scaling di strutture di comunicazione condivise. Questa tesi si colloca principalmente nel contesto delle nascenti piattaforme multicore ad alte prestazioni basate sulle 3D NoC, in cui la network on chip viene estesa nelle 3 direzioni. L’obiettivo di questo lavoro è quello di fornire una serie di strumenti e tecniche per poter costruire e aratterizzare una piattaforma tridimensionale, cosi come dimostrato nella realizzazione del testchip 3D NOC fabbricato presso la fonderia IMEC. Il primo contributo è costituito sia una accurata caratterizzazione delle interconnessioni verticali (TSVs) (ovvero delle speciali vias che attraversano l’intero substrato del die), sia dalla caratterizzazione dei router 3D (in cui una o più porte sono estese nella direzione verticale) ed infine dal setup di un design flow 3D utilizzando interamente CAD 2D. Questo primo step ci ha permesso di effettuare delle analisi dettagliate sia sul costo sia sulle varie implicazioni. Il secondo contributo è costituito dallo sviluppo di alcuni blocchi funzionali necessari per garantire il corretto funziomento della 3D NoC, in presenza sia di guasti nelle TSVs (fault tolerant links) che di deriva termica nei vari clock tree dei vari die (alberi di clock indipendenti). Questo secondo contributo è costituito dallo sviluppo delle seguenti soluzioni circuitali: 3D fault tolerant link, Look Up Table riconfigurabili e un sicnronizzatore mesocrono. Il primo è costituito fondamentalmente un bus verticale equipaggiato con delle TSV di riserva da utilizzare per rimpiazzare le vias guaste, più la logica di controllo per effettuare il test e la riconfigurazione. Il secondo è rappresentato da una Look Up Table riconfigurabile, ad alte prestazioni e dal costo contenuto, necesaria per bilanciare sia il traffico nella NoC che per bypassare link non riparabili. Infine la terza soluzione circuitale è rappresentata da un sincronizzatore mesocrono necessario per garantire la sincronizzazione nel trasferimento dati da un layer and un altro nelle 3D Noc. Il terzo contributo di questa tesi è dato dalla realizzazione di un interfaccia multicore per memorie 3D (stacked 3D DRAM) ad alte prestazioni, e dall’esplorazione architetturale dei benefici e del costo di questo nuovo sistema in cui il la memoria principale non è piu il collo di bottiglia dell’intero sistema. Il quarto ed ultimo contributo è rappresentato dalla realizzazione di un 3D NoC test chip presso la fonderia IMEC, e di un circuito full custom per la caratterizzazione della variability dei parametri RC delle interconnessioni verticali.
Resumo:
La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.
Resumo:
Inizialmente teorizzato a partire dall’osservazione degli animali negli studi di etologia di fine Ottocento, il mimetismo si è sviluppato come tekné in una interessante sinergia fra pratica artistica e necessità militare in occasione dei due conflitti mondiali. Attraverso una lettura critica dei testi di Roger Caillois e di Georges Bataille, questa ricerca posiziona il mimetismo nell’ambito della teoria della antivisione e lo inserisce all’interno del discorso anti-oculocentrico che scorre nei canali sotterranei dell’arte del Novecento. Il mimetismo destabilizza il dogma modernista della visualità pura operando un oltrepassamento dei confini identitari e il collasso della logica binaria dell’estetica occidentale fondata sulla opposizione fra soggetto e oggetto, interiorità ed esteriorità, corpo e ambiente. Articolato in tre diverse declinazioni del fare artistico - il paradigma spaziale, il paradigma aptico e il paradigma performativo – il mimetismo veicola un tipo di “presenza” che mette in gioco il corpo ed il contesto extracorporeo in un recupero estetico del valore fenomenologico dell’essere al mondo.
Resumo:
La mostra è diventata un nuovo paradigma della cultura contemporanea. Sostenuta da proprie regole e da una grammatica complessa produce storie e narrazioni. La presente ricerca di dottorato si struttura come un ragionamento critico sulle strategie del display contemporaneo, tentando di dimostrare, con strumenti investigativi eterogenei, assumendo fonti eclettiche e molteplici approcci disciplinari - dall'arte contemporanea, alla critica d'arte, la museologia, la sociologia, l'architettura e gli studi curatoriali - come il display sia un modello discorsivo di produzione culturale con cui il curatore si esprime. La storia delle esposizioni del XX secolo è piena di tentativi di cambiamento del rapporto tra lo sviluppo di pratiche artistiche e la sperimentazione di un nuovo concetto di mostra. Nei tardi anni Sessanta l’ingresso, nella scena dell’arte, dell’area del concettuale, demolisce, con un azzeramento radicale, tutte le convenzioni della rappresentazione artistica del dopoguerra, ‘teatralizzando’ il medium della mostra come strumento di potere e introducendo un nuovo “stile di presentazione” dei lavori, un display ‘dematerializzato” che rovescia le classiche relazioni tra opera, artista, spazio e istituzione, tra un curatore che sparisce (Siegelaub) e un curatore super-artista (Szeemann), nel superamento del concetto tradizionale di mostra stessa, in cui il lavoro del curatore, in quanto autore creativo, assumeva una propria autonomia strutturale all’interno del sistema dell’arte. Lo studio delle radici di questo cambiamento, ossia l’emergere di due tipi di autorialità: il curatore indipendente e l’artista che produce installazioni, tra il 1968 e il 1972 (le mostre di Siegelaub e Szeemann, la mimesi delle pratiche artistiche e curatoriali di Broodthaers e la tensione tra i due ruoli generata dalla Critica Istituzionale) permette di inquadrare teoricamente il fenomeno. Uno degli obbiettivi della ricerca è stato anche affrontare la letteratura critica attraverso una revisione/costruzione storiografica sul display e la storia delle teorie e pratiche curatoriali - formalizzata in modo non sistematico all'inizio degli anni Novanta, a partire da una rilettura retrospettiva della esperienze delle neoavanguardie – assumendo materiali e metodologie provenienti, come già dichiarato, da ambiti differenti, come richiedeva la composizione sfaccettata e non fissata dell’oggetto di studio, con un atteggiamento che si può definire comparato e post-disciplinare. Il primo capitolo affronta gli anni Sessanta, con la successione sistematica dei primi episodi sperimentali attraverso tre direzioni: l’emergere e l’affermarsi del curatore come autore, la proliferazione di mostre alternative che sovvertivano il formato tradizionale e le innovazioni prodotte dagli artisti organizzatori di mostre della Critica Istituzionale. Esponendo la smaterializzazione concettuale, Seth Siegelaub, gallerista, critico e impresario del concettuale, ha realizzato una serie di mostre innovative; Harald Szeemann crea la posizione indipendente di exhibition maker a partire When attitudes become forms fino al display anarchico di Documenta V; gli artisti organizzatori di mostre della Critica Istituzionale, soprattutto Marcel Broodhthears col suo Musée d’Art Moderne, Départment des Aigles, analizzano la struttura della logica espositiva come opera d’arte. Nel secondo capitolo l’indagine si sposta verso la scena attivista e alternativa americana degli anni Ottanta: Martha Rosler, le pratiche community-based di Group Material, Border Art Workshop/Taller de Arte Fronterizo, Guerrilla Girls, ACT UP, Art Workers' Coalition che, con proposte diverse elaborano un nuovo modello educativo e/o partecipativo di mostra, che diventa anche terreno del confronto sociale. La mostra era uno svincolo cruciale tra l’arte e le opere rese accessibili al pubblico, in particolare le narrazioni, le idee, le storie attivate, attraverso un originale ragionamento sulle implicazioni sociali del ruolo del curatore che suggeriva punti di vista alternativi usando un forum istituzionale. Ogni modalità di display stabiliva relazioni nuove tra artisti, istituzioni e audience generando abitudini e rituali diversi per guardare la mostra. Il potere assegnato all’esposizione, creava contesti e situazioni da agire, che rovesciavano i metodi e i formati culturali tradizionali. Per Group Material, così come nelle reading-room di Martha Rosler, la mostra temporanea era un medium con cui si ‘postulavano’ le strutture di rappresentazione e i modelli sociali attraverso cui, regole, situazioni e luoghi erano spesso sovvertiti. Si propongono come artisti che stanno ridefinendo il ruolo della curatela (significativamente scartano la parola ‘curatori’ e si propongono come ‘organizzatori’). La situazione cambia nel 1989 con la caduta del muro di Berlino. Oltre agli sconvolgimenti geopolitici, la fine della guerra fredda e dell’ideologia, l’apertura ai flussi e gli scambi conseguenti al crollo delle frontiere, i profondi e drammatici cambiamenti politici che coinvolgono l’Europa, corrispondono al parallelo mutamento degli scenari culturali e delle pratiche espositive. Nel terzo capitolo si parte dall’analisi del rapporto tra esposizioni e Late Capitalist Museum - secondo la definizione di Rosalind Krauss - con due mostre cruciali: Le Magiciens de la Terre, alle origini del dibattito postcoloniale e attraverso il soggetto ineffabile di un’esposizione: Les Immatériaux, entrambe al Pompidou. Proseguendo nell’analisi dell’ampio corpus di saggi, articoli, approfondimenti dedicati alle grandi manifestazioni internazionali, e allo studio dell’espansione globale delle Biennali, avviene un cambiamento cruciale a partire da Documenta X del 1997: l’inclusione di lavori di natura interdisciplinare e la persistente integrazione di elementi discorsivi (100 days/100 guests). Nella maggior parte degli interventi in materia di esposizioni su scala globale oggi, quello che viene implicitamente o esplicitamente messo in discussione è il limite del concetto e della forma tradizionale di mostra. La sfida delle pratiche contemporanee è non essere più conformi alle tre unità classiche della modernità: unità di tempo, di spazio e di narrazione. L’episodio più emblematico viene quindi indagato nel terzo capitolo: la Documenta X di Catherine David, il cui merito maggiore è stato quello di dichiarare la mostra come format ormai insufficiente a rappresentare le nuove istanze contemporanee. Le quali avrebbero richiesto - altrimenti - una pluralità di modelli, di spazi e di tempi eterogenei per poter divenire un dispositivo culturale all’altezza dei tempi. La David decostruisce lo spazio museale come luogo esclusivo dell’estetico: dalla mostra laboratorio alla mostra come archivio, l’evento si svolge nel museo ma anche nella città, con sottili interventi di dissimulazione urbana, nel catalogo e nella piattaforma dei 100 giorni di dibattito. Il quarto capitolo affronta l’ultima declinazione di questa sperimentazione espositiva: il fenomeno della proliferazione delle Biennali nei processi di globalizzazione culturale. Dalla prima mostra postcoloniale, la Documenta 11 di Okwui Enwezor e il modello delle Platforms trans-disciplinari, al dissolvimento dei ruoli in uno scenario post-szeemanniano con gli esperimenti curatoriali su larga scala di Sogni e conflitti, alla 50° Biennale di Venezia. Sono analizzati diversi modelli espositivi (la mostra-arcipelago di Edouard Glissant; il display in crescita di Zone of Urgency come estetizzazione del disordine metropolitano; il format relazionale e performativo di Utopia Station; il modello del bric à brac; la “Scuola” di Manifesta 6). Alcune Biennali sono state sorprendentemente autoriflessive e hanno consentito un coinvolgimento più analitico con questa particolare forma espressiva. Qual è l'impatto sulla storia e il dibattito dei sistemi espositivi? Conclusioni: Cos’è la mostra oggi? Uno spazio sotto controllo, uno spazio del conflitto e del dissenso, un modello educativo e/o partecipativo? Una piattaforma, un dispositivo, un archivio? Uno spazio di negoziazione col mercato o uno spazio di riflessione e trasformazione? L’arte del display: ipotesi critiche, prospettive e sviluppi recenti.
Resumo:
Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondità di campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.
Resumo:
Oggetto di questa tesi di Laurea è la progettazione di un quartiere residenziale sostenibile a Bertinoro (FC) richiesto dell’Amministrazione Comunale, orientata anche verso la realizzazione di un parcheggio di attestazione multipiano per il borgo e di una risalita meccanizzata al centro. L’area d’intervento costituisce infatti una posizione strategica per l’arrivo e gli accessi alla città alta. Il progetto quindi affronta due scenari: uno a scala urbana e uno a scala architettonica. Fondamentale è stata la definizione delle strategie urbane: consapevoli dell’importanza di una gestione sostenibile del territorio, questa tesi ha cercato di affrontare le problematiche relative alla mobilità del luogo, caratterizzato da forti pendii, ponendosi come obiettivo l’eliminazione di flussi veicolari nel centro storico e nel contempo la completa accessibilità di quest’ultimo attraverso nuovi sistemi meccanizzati di risalita che incentivino la mobilità pedonale. Ciò ha portato ad un studio dei percorsi di Bertinoro e ad una ricerca sulle varie tipologie sia di parcheggio multipiano che di risalita finalizzata alla definizione della soluzione più efficiente e adeguata per il luogo. A scala architettonica la complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici, risorsa fondamentale per quest'area. La sfida è stata quindi quella di progettare un quartiere con dei requisiti energetici che vadano ben oltre i confini determinati dalla normativa e di riuscire ad integrare nel contesto, con il minor impatto ambientale e percettivo, l’intero insediamento, compreso il parcheggio multipiano e la risalita. Il titolo “declivi” sintetizza in questo senso la strategia adottata ovvero tutto il progetto nasce da un attento confronto con le caratteristiche topografiche del luogo cercando di ripristinarle dove sono venute a mancare in una logica non di aggiunta del costruito ma di “crescita” dal suolo. La chiave di lettura è stata in particolare l’idea del terrazzamento e degli affacci sul paesaggio. Durante tutto il processo progettuale si è dunque operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico puntando ad un progetto che possa essere definito sostenibile a tutte le sue scale: urbanistica e architettonica.
Ripartire dall'esistente Riqualificazione di un quartiere di edilizia residenziale pubblica a Faenza
Resumo:
L’intenzione che ha mosso la ricerca è stata quella di ridare valore alla casa pubblica, perché è un’opportunità per la popolazione, soprattutto per le fasce sociali più deboli e perché non può non essere espressione di qualità architettonica, urbanistica e sociale. A ciò si aggiunge la scelta di un modo di operare sostenibile, dove alle nuove costruzioni si predilige l’idea del recupero. Ecco da dove nasce l’idea di ripartire dall’esistente, scegliendo un’area del sistema urbano di proprietà pubblica, per definire, in una prospettiva di miglioramento, un sistema di strategie di intervento e un progetto di riqualificazione. Capire come agire su un’area di questo tipo, ha stimolato ad una lettura degli interventi statali sul tema dell’edilizia pubblica attraverso le azioni in campo legislativo. La ricerca ha preso poi avvio da una lettura dell’evoluzione del quadro normativo nazionale in materia, per poi concentrarsi sul contesto locale con il racconto dei fatti storici della città di Faenza fino ai giorni nostri attraverso le sue vicende urbanistiche. Una considerazione sulla legislazione passata dà la possibilità di vedere come lo Stato abbia nel tempo prestato attenzione e risposto in maniera diversa al problema della casa. In ogni periodo le iniziative dell’Amministrazione in merito alla programmazione, si mostrano come risultati di una risposta sociale e culturale, rilanciando poi, a seconda del momento, varie tematiche, ieri la carenza degli alloggi, oggi il tema della qualità urbana, del recupero e la necessità di contenere i costi e i consumi energetici. Lo studio si è quindi spostato e concentrato sulle tappe ed i risvolti della programmazione a livello locale, cercando di comprendere, anche sulle carte, il risultato di queste azioni amministrative, si legge come il susseguirsi delle diverse politiche urbanistiche abbia lasciato tracce e segni nel disegno della città. Nel loro esito formale gli interventi hanno assunto un valore nella vicenda della città poiché ne hanno determinato l’espansione in un certo modo. Dopo un lavoro di ricerca di documenti, consultando anche diversi archivi, gli interventi in materia di edilizia residenziale pubblica presenti a Faenza sono stati schedati al fine di creare un repertorio di informazioni riguardanti la localizzazione, la data di costruzione e informazioni riguardanti il tipo di intervento a livello normativo, in questo modo si è potuto inquadrare ciascun quartiere in una determinata stagione di politiche abitative. Queste informazioni sono state poi tradotte in schemi che comprendono tutto il territorio della città fino ad ottenere una visione d’insieme e cogliere le relazioni che i singoli interventi intrattengono con il resto della città. Si esplorano poi le relazioni in base alle stagioni delle politiche abitative e in base ai soggetti che ne hanno promosso la costruzione. La ricerca si propone quindi di riflettere sugli strumenti con cui agire nei casi di degrado, assecondando la logica del recupero e del riuso. Il processo per definire il "come" intervenire ha portato alla creazione di un abaco di possibili strategie di riqualificazione suddivise per grandi tematiche (connessione e mobilità, mixitè funzionale e verde, risparmio energetico, nuovi modi dell’abitare e relazioni e identità). Ogni tematica viene poi declinata in sottotemi che descrivono le operazioni possibili per la rigenerazione, correlati da una definizione e da piccoli progetti applicativi. Ciascun progetto schematizzato è pensato su un’area di edilizia residenziale pubblica di Faenza. Le strategie vengono poi effettivamente applicate ad un caso studio: il PEEP Orto Paganella. Il progetto di riqualificazione si struttura in due parti. Una riguarda l’impianto del quartiere, inserendo un nuovo volume destinato a servizi, l’altra si concentra su un edificio esistente per un progetto di recupero allo scopo di ridare valore al manufatto, riscattarne l’immagine e creare un’offerta abitativa adeguata, che assicuri abitazioni in affitto e tipi di alloggi destinati a nuovi soggetti della popolazione, con le loro specifiche esigenze. Il progetto di riqualificazione si sviluppa a partire dall’orientamento dell’edificio e dei suoi affacci. Viene sviluppato il tema dell’involucro, che circonda l’edificio e si declina sui diversi fronti in modo diverso. La proposta della facciata verso sud, trasparente e aperta sul parco pubblico ritrova la giusta considerazione per l’orientamento, sfruttandone le potenzialità e aprendosi alla vista del parco, mentre il fronte a nord rimane chiuso e protetto. Creando nuovi spazi e nuovi affacci e restituendo una nuova immagine dell’edificio si cerca di stimolare una riappropriazione del senso di appartenenza al quartiere.
Resumo:
Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.
Resumo:
The objective of the current thesis is to investigate the temporal dynamics (i.e., time courses) of the Simon effect, both from a theoretical and experimental point of view, for a better understanding of whether a) one or more process are responsible for the Simon effect and b) how this/these mechanism/s differently influence performance. In the first theoretical (i.e., “Theoretical Overview”) part, I examined in detail the process and justification for analyzing the temporal dynamics of the Simon effect and the assumptions that underlie interpretation of the results which have been obtained in the existing literature so far. In the second part (“Experimental Investigations”), though, I experimentally investigated several issues which the existing literature left unsolved, in order to get further evidence in favor or in contrast with the mainstream models which are currently used to account for the different Simon effect time courses. Some points about the experiments are worth mentioning: First, all the experiments were conducted in the laboratory, facing participants with stimuli presented on a PC screen and then recording their responses. Both stimuli presentation and response collection was controlled by the E-Prime software. The dependent variables of interest were always behavioral measures of performance, such as velocity and accuracy. Second, the most part of my experiments had been conducted at the Communication Sciences Department (University of Bologna), under Prof. Nicoletti’s supervision. The remaining part, though, had been conducted at the Psychological Sciences Department of Purdue University (West Lafayette, Indiana, USA), where I collaborated for one year as a visiting student with Prof. Proctor and his team. Third, my experimental pool was entirely composed by healthy and young students, since the cognitive functioning of elderly people was not the target of my research.
Resumo:
La testimonianza è riconosciuta in epistemologia come una fonte fondamentale di conoscenza. Meno consenso c’è riguardo lo status epistemico delle credenze formate e intrattenute su base testimoniale: la questione è se la testimonianza fornisca di per sé le ragioni per affidarvisi, o se tali ragioni siano riducibili alla giustificazione fornita da percezione, memoria e ragionamento. Il dibattito circa lo status epistemico delle credenze acquisite tramite testimonianza ha dato origine a due linee di pensiero contrapposte: il riduzionismo e l’anti-riduzionismo. Secondo gli antiriduzionisti, che si rifanno al pensiero di Thomas Reid, la testimonianza è una fonte basica di giustificazione, alla pari di percezione, memoria e ragionamento. Ciò significa che il soggetto che riceve testimonianza è giustificato a crederne il contenuto in assenza di defeaters rilevanti. I riduzionisti, che fanno capo al lavoro di David Hume, sostengono al contrario che, oltre all’assenza di defeaters rilevanti, per poter credere giustificatamente il contenuto di una testimonianza il soggetto deve essere in possesso di ragioni positive non-testimoniali. Queste ragioni sono normalmente rintracciate in un’induzione che parte dalla memoria dell’osservazione di una generale conformità tra i fatti e le testimonianze, e conclude che un certo tipo di testimone, di circostanza, di contesto, o di contenuto veicolato sono fonti attendibili di informazioni. La critica principale che viene mossa contro l’antiriduzionismo è che sembra approvare la credulità e l’irresponsabilità epistemica . Mostrerò al contrario che la conoscenza testimoniale non sia riducibile ad alcun tipo di inferenza e che la giustificazione che fornisce è in linea con un resoconto del processo che costituisce testimonianza in termini di norme e di committment. Sosterrò una tesi antiriduzionista basata su un resoconto affidabilista della giustificazione che si spiega nei termini dell’esercizio di abilità epistemiche acquisite entro un ambiente epistemico dove le stesse sono profondamente radicate. Un resoconto dell’asserzione nei termini delle norme da cui è regolata mostrerà che la credenza testimoniale è giustificata in virtù della conoscenza che è presupposta dall’asserzione, che della testimonianza è la forma paradigmatica.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.