946 resultados para Swan, Anni
Resumo:
Lo scopo della seguente trattazione, è quello di introdurre il concetto di efficienza energetica all’interno delle aziende, qualunque sia il loro campo d’applicazione. Per far ciò l’ISO ha emanato una nuova normativa a livello internazionale che ha il compito di aiutare le imprese ad implementare un corretto Sistema di Gestione dell’Energia. Dopo una breve introduzione sul panorama energetico nazionale, nel secondo capitolo verranno introdotte le due normative energetiche e verranno spiegate e commentate. Successivamente ci si concentrerà, a partire dal terzo capitolo, sulla grande distribuzione organizzata, la quale è stata analizzata come caso applicativo; in prima analisi verranno introdotti gli impianti presenti all’interno dei supermercati e che maggiormente impattano sul consumo energetico, in secondo analisi verranno analizzate alcune soluzioni che se correttamente implementate potrebbero portare miglioramenti in termini energetici ed economici all’interno delle GDO. Nell’ultimo capitolo si affronterà una vera e propria diagnosi energetica relativa ad un punto vendita nel quale è stato effettuato un sopralluogo per la raccolta dei dati e si analizzerà l’andamento dei consumi energetici e si introdurranno degli indici di performance appositamente pensati per un monitoraggio efficiente dei consumi energetici, infine si proporranno soluzioni espressamente pensate per il suddetto punto vendita. L’intero lavoro è stato svolto in collaborazione con una società di consulenza, la NIER Ingegneria; una società di servizi che ha come scopo la ricerca delle soluzioni più idonee a problemi di carattere prevalentemente organizzativo e tecnologico in riferimento ai settori ambiente, qualità, sicurezza, energia. Fondata nel 1977, il primo ambito lavorativo fu l’Energia: effettuò ricerche, realizzò simulazioni e banche dati, come la prima Banca Dati Metereologica italiana (su base oraria) e il calcolo dei gradi giorno per tutti i Comuni italiani. Caso raro in Italia, sono rimasti impegnati anche nel Nucleare occupandosi, prima, di sicurezza di reattori a fusione, poi di affidabilità e sicurezza della nuova macchina a fusione, l'ambizioso progetto internazionale Net/Iter. Negli anni '80, dal nucleare si sono allargati al settore dei Rischi e Incidenti rilevanti in campo industriale fornendo assistenza alle imprese e alla pubblica amministrazione e, successivamente, negli anni '90, alle attività di Analisi ambientali e di sicurezza con la produzione di piani di emergenza, manuali operativi, corsi di formazione e strategie di comunicazione ambientale. Infine, l’ Ambiente nelle sue molteplici articolazioni. Acqua, aria, suolo e sottosuolo sono stati oggetto di studi, ricerche e progetti svolti per Autorità Pubbliche, Enti di Ricerca e industrie nella direzione di uno sviluppo durevole e sostenibile. In ambito energetico si occupano di • Diagnosi e certificazioni energetiche • ISO 50001:2011 - Sistema di gestione per l'energia • Piani energetici ambientali • Simulazioni dinamiche di edifici ed impianti • Energie rinnovabili • Risparmio energetico • Attività di ricerca
Resumo:
La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.
Resumo:
La ricerca verte sull’udinese Michele Leskovic (1905-1979), noto con lo pseudonimo di Escodamè, attivo in campo futurista dal 1920 fino alla fine degli anni Trenta. Il lavoro ricostruisce il periodo futurista di Leskovic utilizzando sia documentazione edita sia inedita rintracciata presso numerose Biblioteche ed Archivi pubblici e privati italiani e presso la Beinecke Rare Book and Manuscript Library dell’Università di Yale. Tra gli inediti utilizzati, numerosi quelli provenienti dall’archivio privato di Michele Leskovic conservato presso «Casa Lyda Borelli per Operatori ed Artisti dello Spettacolo» di Bologna dove Leskovic visse dal 1970 alla morte insieme alla moglie, l’attrice Camilla Orlandini (1896-1975). Sono qui analizzate tutte le attività svolte dal futurista udinese sia in maniera estemporanea sia continuativa ed approfondita. Particolare attenzione è rivolta alle ricerche condotte in tre campi specifici: la poetica, la poesia ed il teatro, nei quali Leskovic ha raggiunto risultati di indubbio interesse ed originalità. I testi pubblicati da Leskovic da un lato sono stati collazionati con sue stesse carte inedite (spesso abbozzi preparatori) e dall’altro arricchiti nel confronto con le opere di altri membri del movimento futurista e soprattutto con Marinetti, del quale Leskovic risulta essere stato attivo collaboratore.
Resumo:
Oggetto di questa tesi di laurea è la riqualificazione funzionale ed energetica di un'autorimessa per corriere costruita a Forlì nel 1935 dal geom. Alberto Flamigni e di proprietà dell' ATR, Agenzia per la Mobilità della provincia di Forlì-Cesena. Al deposito per corriere sono annessi dei piccoli capanni adibiti a magazzini ed una palazzina per uffici costruita negli anni '50, non facente parte del progetto originale. Oggi l'intero complesso risulta in disuso e la richiesta espressa dall'Amministrazione Comunale di Forlì è quella di adattare il comparto per ospitare funzioni musicali, d'intrattenimento e cultura, pensando anche ad un collegamento col manufatto storico dell'Arena Forlivese; quest'ultima, costruita negli anni '20, è situata ai margini del lotto in esame, risulta di proprietà privata ed oggi versa in condizioni di grave degrado. Uno dei fini del progetto, sul filo conduttore delle richieste dell'Amministrazione, è quello di mantenere l'involucro originale dell'edificio, su cui grava anche un vincolo storico, essendo stato progettato durante il periodo fascista ed avendo forti richiami alle soluzioni architettoniche adottate da Marcello Piacentini. Si è quindi deciso di lavorare al suo interno, al fine di creare dei nuclei indipendenti che ospitano le nuove funzioni di auditorium, mediateca, spazio espositivo, sale prova, camerini, mantenendo invece intatto il perimetro in mattoni facciavista con basamento in travertino. Il fronte esposto a sud, essendo stato originariamente pensato come mero elemento di chiusura, senza basamento e sistema di rivestimento ma semplicemente intonacato, si distacca dal resto dell'involucro ed è stato perciò oggetto di maggiori modifiche, in relazione anche al nuovo orientamento d'ingresso pensato per il comparto: l'Amministrazione Comunale ha infatti espresso il desiderio di modificare il percorso di accesso all'edificio, dal fronte nord su piazza Savonarola al fronte ovest su via Ugo Bassi. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, ponendo particolare attenzione al rispetto e alla valorizzazione della struttura esistente: uno dei punti forti dell'ex deposito è infatti la sua copertura in travi reticolari in c.a. con shed vetrati orientati a nord. Tale sistema di copertura è stato mantenuto per favorire l'illuminazione degli spazi interni, isolato termicamente ed integrato con dei pannelli diffusori che garantiscono una luce uniforme e ben distribuita. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze dell'utenza. Mantenendo la finalità del minimo intervento sull'involucro esistente, nel piano terra si è adottata una tipologia di ambienti open space che delimitano il doppio volume dello spazio espositivo, pensato come un semplice e neutro contenitore, allestibile in base al tipo di mostra ed alla volontà degli organizzatori. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva per l'auditorium ed i volumi adibiti a sale prova, camerini e depositi, adottando elementi prefabbricati in legno assemblati a secco. Si sono studiati anche i sistemi impiantistici al fine di garantire un elevato livello di comfort interno e nel contempo un considerevole risparmio dal punto di vista energetico. Durante le varie fasi di avanzamento e messa a punto del progetto è stata posta grande attenzione all'aspetto acustico, dalla scelta della forma della sala al trattamento superficiale per garantire un'ottima resa prestazionale, parametro imprescindibile nella progettazione di un adeguato spazio musicale. Altro elemento preso in considerazione a scala locale e urbana è stato quello della sistemazione del cortile a sud, oggi asfaltato ed utilizzato come semplice parcheggio di autobus, al fine di trasformarlo in parco pubblico fruibile dagli utenti del complesso culturale e nel contempo elemento di connessione con l'Arena, tramite un nuovo sistema di orientamenti e percorsi.
Resumo:
La terapia di resincronizzazione cardiaca (CRT) si è imposta negli ultimi dieci anni come l'alternativa migliore all'approccio farmacologico primario nella cura allo scompenso cardiaco: la stimolazione biventricolare utilizzando un elettrocatetere in ventricolo sinistro si è infatti rivelata uno dei metodi più efficaci per migliorare la dissincronia ventricolare negli stadi più avanzati anche nei pazienti che necessitano di una stimolazione continua e permanente come coloro che sono stati sottoposti ad ablazione del nodo AV. Esistono diversi punti irrisolti su cui la ricerca sta ancora lavorando per poter ottimizzare questa terapia, in particolar modo la percentuale (circa il 25-30%) dei pazienti in cui non si registrano miglioramenti dovuti alla terapia. Questa tesi, proposta dall'azienda St.Jude Medical Inc., segue la costruzione di un registro osservazionale per poter valutare l'efficacia della tecnologia quadripolare di ultima generazione. Dai dati emersi, la possibilità di programmare dieci diversi vettori di stimolazione contro i tre offerti dagli attuali dispositivi bipolari permette una maggiore libertà nel posizionamento dell'elettrocatetere ventricolare sinistro e una più semplice gestione delle complicanze come la stimolazione del nervo frenico (PNS), oltre a strutturare una terapia più specifica a seconda della risposta del paziente; inoltre la tecnologia quadripolare ha evidenziato migliori prestazioni in sede di impianto – tempi minori, più percentuali di successo e maggiori possibilità di posizionamento del catetere in zona ottimale con buoni valori di soglia – e meno interventi in seguito a complicanze. Il miglioramento della percentuale dei responder non è stato particolarmente significativo e necessita di ulteriori studi, ma è comunque incoraggiante e mostra che un numero più alto di configurazioni di stimolazione può essere una soluzione ottimale per la ricerca di una cura personalizzata, specialmente verso quei pazienti che durante l'impianto verrebbero esclusi per mancanza di stimolazioni corrette e possono, in questo modo, rientrare nella terapia fin dall'inizio.
Resumo:
La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Resumo:
Il presente studio indaga il rapporto tra il diritto internazionale e il potere, in particolare, il rapporto tra lo sviluppo e il funzionamento di alcuni principi fondamentali della coesistenza internazionale e le diseguaglianze di potere tra gli stati, nella prospettiva della “scuola inglese” della teoria delle relazioni internazionali. Quella a cui si farà riferimento è la scuola inglese “classica” riconosciuta come un corpo di pensiero derivante dall’opera di Martin Wight e Hedley Bull, e non la scuola inglese «moderna» o «nuova», che, in tempi più recenti, soprattutto nel corso degli anni ‘90, ha, più che altro, contribuito al successo della sua «invenzione» . Lo scopo è quello di mostrare, in primo luogo, come una delle caratteristiche distintive di questa scuola sia l’enfasi sulle regole, e, in special modo, sulle regole di diritto internazionale, sebbene in nessun posto la posizione di questi studiosi sull’argomento sia esposta in modo sistematico. Se la prima parte di questo lavoro, di tipo teoretico, tratta la questione della definizione operativa e della comprensione generale dell’istituzione del diritto internazionale, secondo l’approccio della scuola inglese classica, la seconda parte, di tipo empirico, tenta di verificare, tramite esemplificazioni storiche, tratte da eventi politici contemporanei, la validità delle principali conclusioni elaborate nella prima parte. E ciò con particolare riferimento alla distinzione, introdotta da Bull, delle due categorie analitiche di “pluralismo” e “solidarismo”, considerate come un’utile chiave di lettura per interpretare gli sviluppi della società internazionale e del diritto dopo la guerra fredda.
Resumo:
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
La ricerca ha mirato a ricostruire storicamente quali furono le motivazioni che, tra la fine del XIX e gli inizi del XX secolo, portarono gli amministratori della Cassa Risparmio in Bologna a progettare la creazione di un Museo d’arte e di Storia della città, delineandone quelli che furono i principali responsabili e protagonisti. Dall’analisi dei documenti conservati presso l’Archivio della Cassa di Risparmio è emerso uno studio approfondito dei protagonisti della politica artistica e culturale dell’Istituto, oltre che dei legami e delle relazioni intessute con le principali istituzioni cittadine. Lo studio si è progressivamente focalizzato su un particolare momento della storia di Bologna, quando, in seguito all’approvazione del Piano Regolatore del 1889, la città fu per oltre un trentennio sottoposta a radicali trasformazioni urbanistiche che ne cambiarono completamente l’aspetto. Tra i personaggi finora ignoti di questa storia è emerso il nome dell’ingegnere Giambattista Comelli, consigliere e vice segretario della banca alla fine del XIX secolo, che per primo, nel 1896, avanzò la proposta di creare un museo dell’Istituto. A differenza di quanto ritenuto sino ad oggi, questo avrebbe dovuto avere, nelle intenzioni originarie, esclusivamente funzione di riunire e mostrare oggetti e documenti inerenti la nascita e lo sviluppo della Cassa di Risparmio. Un museo, dunque, che ne celebrasse l’attività, mostrando alla città come la banca avesse saputo rispondere prontamente e efficacemente, anche nei momenti più critici, alle esigenze dei bolognesi. Personaggio oggi dimenticato, Comelli fu in realtà figura piuttosto nota in ambito cittadino, inserita nei principali sodalizi culturali dell’epoca, tra cui la Regia Deputazione di Storia Patria e il Comitato per Bologna Storico Artistica, assieme a quei Rubbiani, Cavazza e Zucchini, che tanta influenza ebbero, come vedremo in seguito, sugli orientamenti Si dovettero tuttavia aspettare almeno due decenni, affinché l’idea originaria di fondare un Museo della Cassa di Risparmio si evolvesse in un senso più complesso e programmatico. Le ricerche hanno infatti evidenziato che le Raccolte d’Arte della Cassa di Risparmio non avrebbero acquistato l’importanza e la consistenza che oggi ci è dato constatare senza l’intervento decisivo di un personaggio noto fino ad oggi soltanto per i suoi indubbi meriti artistici: Alfredo Baruffi. Impiegato come ragioniere della Cassa fin dai diciotto anni, il Baruffi divenne, una volta pensionato, il “conservatore” delle Collezioni della Cassa di Risparmio. Fu lui a imprimere un nuovo corso all’originaria idea di Comelli, investendo tutte le proprie energie nella raccolta di dipinti, disegni, incisioni, libri, incunaboli, autografi, fotografie e oggetti d’uso quotidiano, col proposito di creare un museo che raccontasse la storia di Bologna e delle sue ultime grandi trasformazioni urbanistiche. Attraverso l’attenta analisi dei documenti cartacei e il raffronto con le opere in collezione è stato quindi possibile ricostruire passo dopo passo la nascita di un progetto culturale di ampia portata. La formazione della raccolta fu fortemente influenzata dalle teorie neomedievaliste di Alfonso Rubbiani, oltre che dalla volontà di salvaguardare, almeno a livello documentario, la memoria storica della Bologna medievale che in quegli anni stava per essere irrimediabilmente cancellata. Le scelte che orientarono la raccolta dei materiali, recentemente confluiti per la maggior parte nelle Collezioni della Fondazione della Cassa di Risparmio in Bologna, acquistano, con questo studio una nuova valenza grazie alla scoperta degli stretti rapporti che Baruffi intrattenne coi principali rappresentanti della cerchia rubbianesca, tra cui Francesco Cavazza, Guido Zucchini e Albano Sorbelli. Con essi Baruffi partecipò infatti a numerosi sodalizi e iniziative quali il Comitato per Bologna Storico Artistica, la “Mostra Bologna che fu” e la società Francesco Francia, che segnarono profondamente l’ambiente culturale cittadino. La portata e la qualità delle scelte condotte da Baruffi nell’acquisto e raccolta dei materiali si rivela ancora oggi, a distanza di quasi un secolo, attenta e mirata per il ruolo documentario che le Raccolte avevano e hanno assunto quali preziose e spesso uniche testimonianze del recente passato cittadino. Esaminata tutta la documentazione inerente la nascita delle Raccolte, la ricerca si è ha successivamente concentrata sulla vicenda di acquisto del fondo delle incisioni carraccesche della collezione Casati. La prima parte del lavoro è consistita nel repertoriare e trascrivere tutti i documenti relativi alla transazione d’acquisto, avvenuta nel 1937, vicenda che per la sua complessità impegnò per molti mesi, in un fitto carteggio, Baruffi, la direzione della Cassa e l’antiquario milanese Cesare Fasella. Il raffronto tra documenti d’archivio, inventari e materiale grafico ha permesso di ricostituire, seppur con qualche margine di incertezza, l’intera collezione Casati, individuando quasi 700 incisioni e 22 dei 23 disegni che la componevano. L’ultima fase di studio ha visto l’inventariazione e la catalogazione delle 700 incisioni. Il catalogo è stato suddiviso per autori, partendo dalle incisioni attribuite con certezza ad Agostino e ai suoi copisti, per poi passare ad Annibale e a Ludovico e ai loro copisti. Le incisioni studiate si sono rivelate tutte di grande qualità. Alcuni esemplari sono inoltre particolarmente significativi dal punto di vista storico-critico, perché mai citati nei tre principali e più recenti repertori di stampe carraccesche. Lo studio si conclude con l’individuazione di una stretta correlazione tra il pensiero e della pratica operatività in qualità di archivista, museografo e opinionista, di un altrettanto decisivo protagonista della ricerca, lo storico dell’arte Corrado Ricci, la cui influenza esercitata nell’ambiente culturale bolognese di quegli anni è già sottolineata nel primo capitolo. La conclusione approfondisce i possibili raporti e legami tra Baruffi e Corrado Ricci i cui interventi attorno alla questione della tutela e della salvaguardia del patrimonio storico, artistico, e paesaggistico italiano furono fondamentali per la nascita di una coscienza artistica e ambientale comune e per il conseguente sviluppo di leggi ad hoc. Numerose furono infatti le occasioni d’incontro tra Baruffi e Ricci. Qesti fu socio onorario del Comitato per Bologna Storico Artistica, nonché, quando era già Direttore Generale delle Belle Arti, presidente della storica mostra “Bologna che fu”. Sia Ricci che Baruffi fecero inoltre parte di quelle iniziative volte alla difesa e alla valorizzazione del paesaggio naturale, inteso anche in un ottica di promozione turistica, che videro la nascita proprio in Emilia Romagna: nel 1889 nasce l’Associazione Pro Montibus et silvis, del 1906 è l’Associazione nazionale per i paesaggi e monumenti pittoreschi, del 1912 è la Lega Nazionale per la protezione dei monumenti naturali. Queste iniziative si concretizzarono con la fondazione a Milano nel 1913 del Comitato Nazionale per la difesa del paesaggio e i monumenti italici, costituitosi presso la sede del Touring Club Italiano. Quelle occasioni d’incontro, come pure gli scritti di Ricci, trovarono certamente un terreno fertile in Baruffi conservatore, che nella formazione delle Collezioni, come pure nelle sua attività di “promotore culturale”, ci appare oggi guidato dalle teorie e dall’esempio pratico dei due numi tutelari: Alfonso Rubbiani e Corrado Ricci. La ricerca di documentazione all’interno di archivi e biblioteche cittadine, ha infine rivelato che il ruolo svolto da Baruffi come “operatore culturale” non fu quello di semplice sodale, ma di vero protagonista della scena bolognese. Soprattutto a partire dal secondo decennio del Novecento, quando fors’anche a seguito della morte del “maestro” Rubbiani, egli divenne uno tra i personaggi più impegnati in iniziative di tutela e promozione del patrimonio artistico cittadino, antico e moderno che fosse, intese a condizionare la progettualità politica e culturale della città. In tale contesto si può ben arguire il ruolo che avrebbero assunto le Collezioni storico artistiche numismatiche, popolaresche, della Cassa di Risparmio, cui Baruffi dedicò tutta la sua carriera successiva.
Resumo:
Nel corso degli ultimi venti anni si è assistito ad un incremento generalizzato della disoccupazione in Europa in particolare di quella giovanile: nel 1997 in molti paesi europei il tasso di disoccupazione della classe 15-24 anni è doppio rispetto a quello degli adulti. Questo lavoro si propone di dare una descrizione realistica del fenomeno della disoccupazione giovanile in Italia come risultante dalle prime 4 waves dell’indagine European Household Community Panel indagando la probabilità di transizione dallo stato di disoccupazione a quello di occupazione. Nell’ambito di un’impostazione legata alla teoria dei processi stocastici e dei dati di durata si indagheranno gli effetti che episodi di disoccupazione precedenti possono avere sulla probabilità di trovare un lavoro, in particolare, nell’ambito di processi stocastici più generali si rilascerà l’ipotesi di semi-markovianità del processo per considerare l’effetto di una funzione della storia passata del processo sulla transizione attuale al lavoro. La stima della funzione di rischio a vari intervalli di durata si dimostra più appropriata quando si tiene conto della storia passata del processo, in particolare, si verifica l’ipotesi che la possibilità di avere successo nella ricerca di un lavoro è negativamente influenzata dall’aver avuto in passato molte transizioni disoccupazione-occupazione-disoccupazione.
Resumo:
I fattori che, nei primi anni dell'aviazione, contribuivano al verificarsi o meno di una sciagura aerea erano principalmente di natura meccanica, mentre oggi la maggior parte degli incidenti è attribuibile all’errore umano. Nel corso del tempo sono stati sviluppati modelli per l’analisi del fattore umano ed ha assunto un ruolo fondamentale lo studio del crashworthiness allo scopo di sviluppare tecnologie che contribuiscano alla riduzione di incidenti aerei e del tasso di mortalità. In questo studio è stata analizzata la resistenza della fusoliera di un aliante DG-100G Elan nelle principali tipologie di impatto. Le statistiche evidenziano, come cause principali di incidente, la caduta in vite e lo stallo in prossimità del suolo. Dall’analisi dei risultati ottenuti con la configurazione di base dell’aliante è stata delineata una possibile modifica per migliorarne la resistenza ad impatto. Obiettivo dello studio è la verifica in prima approssimazione della bontà o meno dei risultati ottenuti attraverso l’introduzione delle modifiche, valutando la differenza di quest’ultimi fra le due configurazioni.
Resumo:
Questo lavoro si pone in continuità rispetto al Laboratorio di Sintesi “La città e le case”, nel corso del quale si sono condotti un’analisi del territorio di Ravenna, in particolar modo della Darsena di Città, e uno studio dei possibili scenari di rigenerazione urbana dell’area industriale dismessa del canale Candiano. L’area della Darsena è stata “dimenticata” dagli strumenti di pianificazione per molto tempo, soltanto a partire dagli anni ’90 l’Amministrazione Comunale si è interessata al suo recupero, senza però particolare successo. L’intento di questo lavoro è quello di ripensare l’intero comparto della Darsena di Città attraverso un progetto di rigenerazione urbana che miri a collegare quest’area con la città storica e a ricreare il rapporto tra questa e l’acqua attraverso più fasi distribuite nell’arco dei prossimi 30 anni. Il progetto si pone in continuità con la città esistente ma allo stesso tempo punta a migliorarne alcuni aspetti critici: la mancanza dell’affaccio della città sull’acqua, la cesura nel tessuto urbano dovuta alla presenza dell’infrastruttura ferroviaria e della darsena. Le modalità di sviluppo del progetto per Ravenna riprendono l’esperienza tedesca di HafenCity ad Amburgo dove, dopo un masterplan generale per tutta l’area portuale da recuperare, si è proceduto con concorsi per ciascun edificio così da ottenere una grande varietà architettonica. Maggiore attenzione viene data al progetto degli spazi pubblici poiché la fruizione di essi da parte della collettività e l’attaccamento a questi luoghi possono essere gli elementi trainanti per la riqualificazione dell’intera area. Il progetto degli spazi pubblici è pensato come un sistema unitario poiché deve essere l’elemento che guida, “coordina” e uniforma il progetto del costruito.