908 resultados para ricostruzione di immagini stima del rumore regolarizzazioneproblemi mal postivariazione totale
Resumo:
L’oggetto del progetto di restauro è il Castello di Montebello, un’antica fortezza inserita all’interno del circuito di costruzioni militari della Valle del Marecchia, dunque un oggetto della storia e nella storia. Dunque un’attenta fase diagnostica-conoscitiva deve costituire la premessa indispensabile a qualsiasi intervento sulla preesistenza. Così a partire dai dati conoscitivi assunti si sono delineati gli obiettivi del progetto. L’obiettivo conservativo viene, in questo caso specifico, raggiunto non solo attraverso la conservazione vera e propria, ma anche attraverso la demolizione: una quasi paradossale demolizione per la conservazione. Le strutture introdotte con l’intervento di ricostruzione degli anni Sessanta del Novecento effettuato sul manufatto storico infatti, non solo, non introducono valore aggiuntivo all’opera,ma ne compromettono, per soluzioni, materiali ed incertezza costruttiva, la spazialità e la sicurezza, dunque la conservazione. Così, attraverso operazioni ora di conservazione, ora di demolizione e ricostruzione si è cercato di predisporre la fabbrica affinché, in modo sicuro possa accogliere una funzione, necessariamente compatibile e rispettosa del manufatto, che ne consenta il prolungamento della vita e la conservazione nel tempo. La funzione museale, finalizzata alla valorizzazione del complesso difensivo e all’esposizione della collezione epigrafica della famiglia proprietaria sembrano rispondere appieno alle domande del progetto di restauro.
Resumo:
Il lavoro ripercorre le tracce che gli ebrei portoghesi, esuli dopo il biennio 1496-97, lasciarono nel loro cammino attraverso l'Europa. In particolare, l'interesse si concentra sulla breve parentesi italiana, che grazie all'apertura e alla disponibilità di alcuni Signori, come i Gonzaga di Mantova, i Medici, i Dogi della Serenissima e gli Este, risulta ricchissima di avvenimenti e personaggi, decisivi anche per la storia culturale del Portogallo. L'analisi parte evidenziando l'importanza che ebbe la tipografia ebraica in Portogallo all'epoca della sua introduzione nel Paese; in secondo luogo ripercorre la strada che, dal biennio del primo decreto di espulsione e del conseguente battesimo di massa, porta alla nascita dell'Inquisizione in Portogallo. Il secondo capitolo tenta di fare una ricostruzione, il più possibile completa e coerente, dei movimenti degli esuli, bollati come marrani e legati alle due maggiori famiglie, i Mendes e i Bemveniste, delineando poi il primo nucleo di quella che diventerà nel Seicento la comunità sefardita portoghese di Amsterdam, dove nasceranno le personalità dissidenti di Uriel da Costa e del suo allievo Spinoza. Il terzo capitolo introduce il tema delle opere letterarie, effettuando una rassegna dei maggiori volumi editi dalle officine tipografiche ebraiche stanziatesi in Italia fra il 1551 e il 1558, in modo particolare concentrando l'attenzione sull'attività della tipografia Usque, da cui usciranno numerosi testi di precettistica in lingua ebraica, ma soprattutto opere cruciali come la famosa «Bibbia Ferrarese» in castigliano, la «Consolação às Tribulações de Israel», di Samuel Usque e la raccolta composta dal romanzo cavalleresco «Menina e Moça» di Bernardim Ribeiro e dall'ecloga «Crisfal», di un autore ancora non accertato. L'ultimo capitolo, infine, si propone di operare una disamina di queste ultime tre opere, ritenute fondamentali per ricostruire il contesto letterario e culturale in cui la comunità giudaica in esilio agiva e proiettava le proprie speranze di futuro. Per quanto le opere appartengano a generi diversi e mostrino diverso carattere, l'ipotesi è che siano parte di un unicum filosofico e spirituale, che intendeva sostanzialmente indicare ai confratelli sparsi per l'Europa la direzione da prendere, fornendo un sostegno teoretico, psicologico ed emotivo nelle difficili condizioni di sopravvivenza, soprattutto dell'integrità religiosa, di ciascun membro della comunità.
Resumo:
La regolazione dell’espressione genica è un processo molto complesso e finemente controllato da fattori multipli, tra i quali quelli epigenetici hanno richiamato l’attenzione nell’ultima decade. I meccanismi di regolazione epigenetica comprendono la metilazione del DNA a livello delle isole CpG nella regione del promotore del gene e le modifiche istoniche post-traduzionali, quali acetilazioni e metilazioni. Questa serie di elementi di regolazione concorre a determinare uno stato di impacchettamento della cromatina più o meno rilassato, che influenzerà la trascrizione di geni critici, per esempio nello sviluppo o nelle neoplasie. Gli ambiti nei quali lo studio del profilo epigenetico ha assunto maggiore rilievo sono effettivamente quello oncologico e quello del differenziamento di cellule staminali, due contesti nei quali si è svolto il mio programma di Dottorato, nel quale ho seguito in parallelo più progetti presentati nella tesi in modo indipendente. La ricerca in campo tumorale è centrata sull’indagine di nuovi marcatori e sull’individuazione di profili epigenetici specifici per un determinato tumore che possano aiutare la diagnostica precoce, la classificazione e la sorveglianza dell’evoluzione clinica della neoplasia. In questo contesto si inserisce il progetto finalizzato alla costruzione di quadri associativi di metilazione in due tumori cerebrali, il glioblastoma (GBM) e l’oligodendroglioma (ODG). La casistica di GBM e di ODG in dotazione è stata valutata dal punto di vista della metilazione dei promotori di geni (MGMT, EMP3,..) con funzioni oncosoppressive e trovati ipermetilati anche in altri tumori o localizzati in regioni citologicamente instabili, per poter correlare questi dati con la risposta terapeutica nel caso del GBM o con i dati di perdita di eterozigosità (LOH) 1p19q nel caso dell’ODG. Parallelamente all’individuazione di marcatori epigenetici in ambito oncologico, la ricerca si sta muovendo anche nell’indagine di nuove potenziali terapie farmacologiche antitumorali su base epigenetica. In questo contesto, con lo scopo di approfondire le relazioni tra i meccanismi alla base della regolazione epigenetica, ci si è riproposti di valutare la correlazione tra il meccanismo di metilazione/demetilazione del DNA e quello di acetilazione/deacetilazione istonica e la loro vicendevole influenza nel determinare silenziamento genico piuttosto che riattivazione dell’espressione di geni ipermetilati. Sono stati usati farmaci epigenetici demetilanti, quali Azacitidina e Decitabina, inibitori della istone deacetilasi, quali la Tricostatina A, e inibitori della via di sintesi di molecole, le poliammine, coinvolte nella regolazione dell’espressione genica con modalità ancora da precisare in modo definitivo. Sebbene i meccanismi di regolazione epigenetica vengano studiati per lo più nel cancro, a causa delle gravi conseguenze che una loro disregolazione porta in termini di silenziamento di geni oncosoppressori, essi sono implicati fisiologicamente anche nel differenziamento di cellule staminali. Gli ultimi due progetti trattati nella tesi si contestualizzano in questo ambito. In particolare viene presentata la messa a punto di una metodologia di immunoprecipitazione sequenziale della cromatina finalizzata all’individuazione di due modificazioni istoniche associate alla stessa regione di DNA. Le modifiche hanno riguardato i marcatori rappresenatativi di cromatina trascrizionalmente repressa H3K27me3 (trimetilazione della Lys27 dell’istone H3) e di cromatina trascrizionalmente attiva H3K24me2 (dimetilazione della Lys4 dell’istone H3) che definiscono i domini detti bivalenti, associati a geni che codificano per fattori di trascrizione che regolano lo sviluppo in cellule embrionali staminali, mantenendoli pronti per un veloce indirizzamento verso l’ attivazione trascrizionale. Il ruolo che la regolazione epigenetica svolge durante il differenziamento di cellule staminali non è ancora noto con precisione. È chiaro però che la memoria della linea cellulare verso la quale si differenzia una cellula staminale adulta, implica l’utilizzo di modifiche epigenetiche, quali la metilazione del DNA e correlati pattern di metilazione e acetilazione istonica. L’ultimo progetto, trattato, è stato finalizzato a verificare il coinvolgimento dell’epigenetica e in particolare della metilazione dei promotori di fattori trascrizionali precocemente attivati durante il differenziamento verso il fenotipo muscolare cardiaco di cellule staminali umane derivate da tessuto adiposo (ADSCs).
Resumo:
La necessità di conservazione e recupero di murature, di qualsiasi interesse storico/architettonico, ha evidenziato la necessità di conoscere il più dettagliatamente possibile le caratteristiche strutturali delle opere interessate: un intervento risulterà tanto più efficace e adatto agli scopi prefissi quanto maggiore sarà la conoscenza dell’opera, della sua evoluzione, dei materiali utilizzati per la realizzazione, della tecnica costruttiva e della struttura portante. Spesso è necessario eseguire interventi di adeguamento sismico di comuni edifici su cui poter intervenire più o meno indiscriminatamente, mentre, per opere di interesse storico è necessario ridurre al minimo l’invasività degli interventi: in tutti e due i casi, una buona riuscita dell’intervento dipende dalla conoscenza dell’organismo strutturale sul quale si deve operare. Come spesso accade, anche per opere di recente costruzione, risulta difficile poter recuperare i dati progettuali (disegni e calcoli) e spesso le tecniche e le tipologie utilizzate per le costruzioni si differenziavano da zona a zona, così come diversi erano i materiali da costruzione; risulta quindi evidente che per progettare una serie di interventi di recupero è necessario poter ottenere il maggior numero di informazioni al riguardo. Diverse sono le esperienze maturate in questo campo in tutta Europa e queste hanno mostrato come non è sufficiente intervenire con tecniche innovative per adeguare agli standard attuali di sicurezza opere del passato: infatti, in molti casi, l’applicazione sbagliata di queste tecniche o gli interventi progettati in modo non adeguato non hanno svolto il loro compito e in alcuni casi hanno peggiorato la situazione esistente. Dalle esperienze maturate è stato possibile osservare che anche le migliore tecniche di recupero non possono risultare efficaci senza un’adeguata conoscenza dello stato di degrado degli edifici, del loro assetto strutturale e delle possibili carenze. La diagnostica strutturale si vuole inserire proprio in questo livello potendo fornire ad un progettista tutte le informazioni necessarie per effettuare al meglio ed in maniera efficace gli interventi di recupero e restauro necessari. Oltre questi aspetti, le analisi diagnostiche possono essere utilizzate anche per verificare l’efficacia degli interventi effettuati. Diversi sono gli aspetti che si possono analizzare in un’indagine di diagnostica ed in base alle esigenze e alle necessità del rilievo da effettuare sono varie le tecniche a disposizione, ognuna con le sue peculiarità e potenzialità. Nella realizzazione di questa tesi sono state affrontate diverse problematiche che hanno previsto sia l’analisi di situazioni reali in cantiere, sia lo studio in laboratorio. La prima parte del presente elaborato prevede lo studio delle attività svolte a Palazzo Malvezzi, attuale sede della Provincia di Bologna. L’edificio, di interesse storico, ha subito diverse trasformazioni durate la sua vita ed in alcuni casi, queste, eseguite con tecnologie e materiali inadatti, hanno provocato variazioni nell’assetto statico della struttura; inoltre, il palazzo, è soggetto a movimenti a livello di fondazione in quanto è presente una faglia di subsidenza che attraversa l’edificio. Tutte queste problematiche hanno creato movimenti differenziali alla struttura in elevazione che si sono evidenziati con crepe distribuite in tutto l’edificio. Il primo aspetto analizzato (capitoli 4 e 5) è lo studio della profondità delle fessure presenti nel solaio della sala Rossa, sede dei comunicati stampa e delle conferenze della Provincia. Senza dubbio antiestetiche, le crepe presenti in una struttura, se sottovalutate, possono compromettere notevolmente le funzioni statiche dell’elemento in cui si sviluppano: la funzione di protezione fornita dal solaio o da qualsiasi altro elemento strutturale alle armature in questo immerse, viene meno, offrendo vie preferenziali a possibili situazioni di degrado, specialmente se in condizioni ambientali aggressive. E' facile intuire, quindi, che un aspetto all’apparenza banale come quello delle fessure non può essere sottovalutato. L’analisi è stata condotta utilizzando prove soniche ed impact-echo, tecniche che sfruttano lo stresso principio, la propagazione delle onde elastiche nel mezzo, ma che si differenziano per procedure di prova e frequenze generate nel test. Nel primo caso, la presenza del martello strumentato consente di valutare anche la velocità di propagazione delle onde elastiche, fenomeno utilizzato per ottenere indicazioni sulla compattezza del mezzo, mentre nel secondo non è possibile ricavare queste informazioni in quanto la tecnica si basa solamente sullo studio in frequenza del segnale. L’utilizzo dell’impact-echo è stato necessario in quanto la ristilatura effettuata sulle fessure scelte per l’analisi, non ha permesso di ottenere risultati utili tramite prove soniche ; infatti, le frequenze generate risultano troppo basse per poter apprezzare queste piccole discontinuità materiali. La fase di studio successiva ha previsto l’analisi della conformazione dei solai. Nel capitolo 6, tale studio, viene condotto sul solaio della sala Rossa con lo scopo di individuarne la conformazione e la presenza di eventuali elementi di rinforzo inseriti nelle ristrutturazioni avvenute nel corso della vita del palazzo: precedenti indagini eseguite con endoscopio, infatti, hanno mostrato una camera d’aria ed elementi metallici posizionati al di sotto della volta a padiglione costituente il solaio stesso. Le indagini svolte in questa tesi, hanno previsto l’utilizzo della strumentazione radar GPR: con questa tecnica, basata sulla propagazione delle onde elettromagnetiche all’interno di un mezzo, è possibile variare rapidamente la profondità d’ispezione ed il dettaglio ottenibile nelle analisi cambiando le antenne che trasmettono e ricevono il segnale, caratteristiche fondamentali in questo tipo di studio. I risultati ottenuti hanno confermato quanto emerso nelle precedenti indagini mostrando anche altri dettagli descritti nel capitolo. Altro solaio oggetto d’indagine è quello della sala dell’Ovale (capitoli 7 e 8): costruito per dividere l’antica sala da ballo in due volumi, tale elemento è provvisto al suo centro di un caratteristico foro ovale, da cui ne deriva il nome. La forma del solaio lascia supporre la presenza di una particolare struttura di sostegno che le precedenti analisi condotte tramite endoscopio, non sono riuscite a cogliere pienamente. Anche in questo caso le indagini sono state eseguite tramite tecnica radar GPR, ma a differenza dei dati raccolti nella sala Rossa, in questo caso è stato possibile creare un modello tridimensionale del mezzo investigato; inoltre, lo studio è stato ripetuto utilizzando un’antenna ad elevata risoluzione che ha consentito di individuare dettagli in precedenza non visibili. Un ulteriore studio condotto a palazzo Malvezzi riguarda l’analisi della risalita capillare all’interno degli elementi strutturali presenti nel piano interrato (capitolo 9): questo fenomeno, presente nella maggior parte delle opere civili, e causa di degrado delle stesse nelle zone colpite, viene indagato utilizzando il radar GPR. In questo caso, oltre che individuare i livelli di risalita osservabili nelle sezioni radar, viene eseguita anche un’analisi sulle velocità di propagazione del segnale e sulle caratteristiche dielettriche del mezzo, variabili in base al contenuto d’acqua. Lo scopo è quello di individuare i livelli massimi di risalita per poterli confrontare con successive analisi. Nella fase successiva di questo elaborato vengono presentate le analisi svolte in laboratorio. Nella prima parte, capitolo 10, viene ancora esaminato il fenomeno della risalita capillare: volendo studiare in dettaglio questo problema, sono stati realizzati dei muretti in laterizio (a 2 o 3 teste) e per ognuno di essi sono state simulate diverse condizioni di risalita capillare con varie tipologie di sale disciolto in acqua (cloruro di sodio e solfato di sodio). Lo scopo è di valutare i livelli di risalita osservabili per diverse tipologie di sale e per diverse concentrazioni dello stesso. Ancora una volta è stata utilizzata la tecnica radar GPR che permette non solo di valutare tali livelli, ma anche la distribuzione dell’umidità all’interno dei provini, riuscendo a distinguere tra zone completamente sature e zone parzialmente umide. Nello studio è stata valutata anche l’influenza delle concentrazioni saline sulla propagazione del segnale elettromagnetico. Un difetto delle tecniche di diagnostica è quello di essere strumenti qualitativi, ma non quantitativi: nel capitolo 11 viene affrontato questo problema cercando di valutare la precisione dei risultati ottenuti da indagini condotte con strumentazione radar GPR. Studiando gli stessi provini analizzati nel capitolo precedente, la tecnica radar è stata utilizzata per individuare e posizionare i difetti (muretti a 3 teste) e le pietre (muretti a 2 teste) inserite in questi elementi: i risultati ottenuti nella prova sono stati confrontati, infine, con la reale geometria. Nell’ultima parte (capitolo 12), viene esaminato il problema dell’individuazione dei vuoti all’interno di laterizi: per questo scopo sono state create artificialmente delle cavità di diversa forma e a diverse profondità all’interno di laterizi pieni che, dopo un trattamento in cella climatica per aumentarne la temperatura, sono stati sottoposti a riprese termografiche nella fase di raffreddamento. Lo scopo di queste prove è quello di valutare quale sia la massima differenza di temperatura superficiale causata dai diversi difetti e per quale intervallo di temperature questa si verifica.
Resumo:
Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.
Resumo:
Il monitoraggio delle vibrazioni e del rumore per la diagnosi delle condizioni di funzionamento dei macchinari ha acquisito un’enorme importanza dovuta alla sempre maggiore accessibilità, in termini di costo e di facilità di utilizzo, delle strumentazioni per l’acquisizione del comportamento vibratorio. L’investimento viene ampiamente giustificato dai vantaggi sia in termini di efficacia nell’individuazione preventiva di difetti e cause di guasto, che di caratterizzazione oggettiva della qualità di funzionamento della macchina. Il presente lavoro relaziona dell’analisi vibro-acustica applicata ad un riduttore epicicloidale prodotto da STM spa attraverso gli strumenti per l’analisi recentemente introdotti nella sala prove dell’azienda, poichè esso presenta, allo stato attuale di produzione e commercializzazione, una rumorosità troppo elevata di cui non si conoscono le cause. Le modifiche introdotte sono state scelte sulla base dell’esperienza tecnica dell’azienda, con l’intento di ridurre il livello di emissione acustica del riduttore. Gli effetti di tali modifiche sono stati valutati in riferimento ai livelli di emissione acustica e di severità di vibrazione, due valutazioni di tipo globale poi affiancate e confrontate con l’analisi spettrale, allo scopo di giustificare e comprendere meglio i risultati ottenuti.
Resumo:
Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.
Resumo:
la ricerca ha avuto per oggetto la ricostruzione della storia e del patrimonio della biblioteca privata specializzata di San Genesio fondata nel 1931 presso la Casa "Lyda Borelli" per artisti drammatici di Bologna. La biblioteca si presenta oggi come uno dei centri di documentazione teatrale più antichi e significativi del panorama italiano: oltre 10.000 monografie, per la maggior parte concernenti testi e studi specialistici, un fondo antico (pre 1831) di oltre 2.000 volumi, una ricca collezione di periodici sul mondo dello spettacolo in collezione completa, una raccolta di copioni teatrali manoscritti e dattiloscritti di oltre 1.000 unità. La biblioteca, inoltre, comprende l'archivio storico della Casa che conserva la documentazione riguardante la vita dell'Istituto dalla sua nascita, nel 1917, numerosi fondi aggregati appartenuti a rilevanti personaggi dello spettacolo e un patrimonio fotografico unico in Italia. La tesi sintetizza i due principali filoni di ricerca seguiti durante il percorso dottorale. Il primo è quello della ricognizione delle fonti archivistiche, sia interne sia esterne all'istituto, al fine di dettagliare la lunga storia della biblioteca San Genesio, mai oggetto di altra ricostruzione complessiva. Questo obiettivo è stato raggiunto mediante la consultazione dell'intero patrimonio documentario conservato presso l'Archivio storico di Casa "Lyda Borelli" e di numerosi fondi archivistici, concernenti attori e personaggi in rapporto con la Casa, presenti in altri istituti pubblici e privati. I documenti interni alla Casa sono stati intrecciati con altri con cui sono speculari, conservati in altre istituzioni. La seconda parte della ricerca si è concentrata sull'analisi del fondo librario antico. La ricchezza della collezione, costituita da oltre trecento testi teatrali pubblicati nel XVI e XVII secolo, ha offerto un ampio campione d'indagine per ricostruire l'evoluzione dell'editoria specializzata nei primi secoli della stampa tipografica. A tal fine è stato redatto un catalogo, in cui la descrizione bibliografica è accompagnata dall'analitica registrazione degli elementi paratestuali presenti, quali dediche, avvisi ai lettori, indici, errata corrige, marginalia, note di possesso ed ex libris, elementi oggetto di forte interesse nei più accreditati e moderni studi bibliologici e di storia del libro sia italiani sia stranieri. A completamento del catalogo sono stati compilati numerosi indici al fine di moltiplicare le chiavi d'accesso e di lettura del fondo (per autori secondari, luoghi di stampa, editori e tipografi, marche tipografiche e possessori), dotando il catalogo di un apparato fotografico dei frontespizi. Questi elementi aggiuntivi rendono l'elaborato un repertorio unico per le edizioni teatrali e una fonte importante per gli studiosi della stampa in antico regime tipografico.
Resumo:
L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.
Resumo:
L’algoritmo per la previsione del Mega-Knock si inserisce all’interno di uno dei temi cardine dell’attuale ricerca nel campo motoristico: la minimizzazione del consumo di combustibile nei motori ad alto grado di sovralimentazione, sviluppati nell’ottica del downsizing. La possibilità di prevedere l’innescarsi del Mega-Knock consente di ottimizzare la definizione dell’obiettivo di titolo, evitando arricchimenti non necessari in un range di funzionamento del motore che frequentemente viene esplorato nella normale guida su strada. Si tratterà la possibilità di utilizzare una relazione empirica per cercare di arrivare alla previsione dell’insorgere della preaccensione, per poi ricorrere ad opportune strategie motore per evitare il verificarsi del fenomeno; il tutto tramite lo sviluppo di un algoritmo in ambiente MatLab-Simulink
Resumo:
Dopo aver definito tutte le proprietà, si classificano gli schemi di suddivisione per curve. Si propongono, quindi, degli schemi univariati per la compressione di segnali e degli schemi bivariati per lo scaling e la compressione di immagini digitali.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.
Resumo:
L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.
Resumo:
Questa tesi affronta lo sviluppo di sistemi elettronici per il collaudo automatizzato di centraline elettroniche per sistemi automotive. Viene illustrato lo sviluppo di un simulatore per il collaudo basato su ambiente Labview. Inoltre, viene presentata un'analisi di fattibiltà del rilevamento di malfunzionamenti basata sull'elaborazione di immagini termografiche.