375 resultados para Google Inc., leggi americane ed europee, gruppi di pressione, lobbying, lobbisti.
Resumo:
L’osteoartrosi è la malattia delle articolazioni più comune al mondo ed è spesso causa di condizioni fortemente disabilitanti. Date le limitazioni dei trattamenti attualmente proposti per la gestione dei pazienti osteoartrosici è di grande interesse la ricerca di soluzioni alternative. A tal fine Fin-Ceramica S.p.A. desidera progettare un innovativo sostituto osteocondrale in collagene attivato con un’emergente classe di macromolecole polimeriche: i dendrimeri. Questi polimeri offrono un’unica opportunità di mostrare all’interfaccia con il tessuto naturale una pluralità di gruppi funzionali favorendo, con un’adeguata ingegnerizzazione, le interazioni biologiche e sostenendo la vitalità e l’attività cellulare. In questo lavoro di tesi, con in mente una futura convalida di processo necessaria a garantire la sicurezza e l’affidabilità del prodotto, sono stati sviluppati nuovi metodi per verificare ed ottimizzare la reazione di sintesi del dendrimero, per caratterizzare il materiale ottenuto e per creare legami covalenti fra collagene e dendrimero attivando potenzialmente il sostituto osteocondrale. Il primo obiettivo è stato conseguito sfruttando la presenza o l’assenza di gruppi amminici disponibili ai terminali del dendrimero in crescita e la formazione di un prodotto di scarto cromoforo durante la sintesi. In relazione a questi elementi sono stati individuati metodi semplici ed efficaci, quali la spettrofotometria ultravioletta ed i saggi colorimetrici con TNBS e ninidrina, per monitorare ogni step di reazione portandolo a compimento e ricavare i tempi necessari a tale scopo. Il dendrimero ottenuto è stato quindi caratterizzato tramite spettrometria infrarossa in trasformata di Fourier. Nota la composizione teorica della nostra macromolecola quest’analisi ha consentito l’identificazione del materiale prodotto ed ha inoltre permesso di dimostrare la ripetibilità dello specifico processo di sintesi dendrimerica. Infine per individuare una possibile procedura di funzionalizzazione del collagene con il dendrimero sono stati sperimentati due differenti metodi relativi a due diversi agenti crosslinkanti. Per rilevare un’eventuale modifica delle proprietà superficiali dei campioni realizzati, conseguente alla presenza dei dendrimeri, ne è stata valutata la bagnabilità attraverso la misura dell’angolo di contatto. La determinazione per uno dei due metodi di un significativo aumento di idrofilicità rispetto al campione di controllo ha verificato la fattibilità della reazione di funzionalizzazione del collagene con il dendrimero sintetizzato in questa ricerca identificando un possibile reagente ed una relativa procedura. I risultati ottenuti da queste ricerche costituiscono informazioni necessarie all’attività di convalida del processo di sintesi del dendrimero ed alla realizzazione del sostituto osteocondrale attivato progettato da Fin-Ceramica.
Resumo:
L’obbiettivo del lavoro è la messa a punto di membrane polimeriche nanoporose funzionalizzate con la N-metil-D-glucamina (NMDG), per la rimozione dell’arsenico dalle acque. Al fine di ottenere membrane con proprietà di filtro molecolare selettivo, si è deciso di sfruttare la capacità della NMDG di chelare selettivamente gli ossianioni dell’arsenico. La NMDG è stata funzionalizzata in maniera da ottenere due monomeri: metacrilato della N-metil-D-glucammina e 4-vinilbenzil-N-metil-D-glucammina, sui quali è stata effettuata una sililazione dei gruppi ossidrilici della glucammina in maniera da ottenere composti liquidi e quindi adatti al processo produttivo delle membrane. Con l’obbiettivo di ottenere un elevata area superficiale la morfologia della membrana è stata controllata mediante imprinting di nanoparticelle di silice colloidale. La cattura del arsenico da parte delle membrane polimeriche è stata valutata mediante analisi di assorbimento atomico a seguito dell’attacco acido con HF 5% che rimuove le particelle di silice ed i gruppi protettori.
Resumo:
Le ex Officine Reggiane si trovano nell’Area Nord di Reggio Emilia e si inseriscono all’interno del progetto di riqualificazione indetto dall’Amministrazione Comunale e descritto nel Piano Strutturale Comunale 2011. Il tema affrontato in questa tesi, elaborato all’interno del Laboratorio di laurea in Architettura sostenibile, si sviluppa su due scale: quella urbana e quella architettonica. In primo luogo il progetto definisce delle strategie di intervento per la riqualificazione della ‘area Reggiane, esplicitate attraverso un masterplan; poi approfondisce parte di un fabbricato e lo spazio aperto adiacente. Attività svolte e risultati conseguiti. Per prima cosa si sono svolte delle analisi morfologiche e geografiche di Reggio Emilia e una lettura approfondita del PSC 2011 al fine di comprendere le strategie dell’Amministrazione e le principali linee di sviluppo della città. In un secondo momento si è passati all’analisi diretta dell’area ex Officine Reggiane, acquisendo informazioni sulla sua storia e sulla sua conformazione. Questo è stato possibile attraverso la lettura di documenti e alle visite in loco. Sulla base dei dati ottenuti e constatata la vocazione dell’area è stato possibile formulare un’idea di masterplan. Successivamente abbiamo approfondito parte del fabbricato 15 a, uno degli edifici a sud-ovest dell’area. Il progetto vero e proprio è stato proceduto da una fase di rilievo ed è sfociato nell’ideazione di una biblioteca e di spazi di coworking inseriti all’interno del fabbricato esistente; parallelamente abbiamo dato una possibile configurazione allo spazio aperto ad est del blocco analizzato. L’edificio della biblioteca è stato approfondito al dettaglio. In ogni fase siamo state supportate da strumenti per la valutazione del comfort indoor e outdoor.
Resumo:
Nel campo della Ricerca Operativa e dei problemi di ottimizzazione viene presentato un problema, denominato Bus Touring Problem (BTP), che modella una problematica riguardante il carico e l’instradamento di veicoli nella presenza di di vincoli temporali e topologici sui percorsi. Nel BTP, ci si pone il problema di stabilire una serie di rotte per la visita di punti di interesse dislocati geograficamente da parte di un insieme di comitive turistiche, ciascuna delle quali stabilisce preferenze riguardo le visite. Per gli spostamenti sono disponibili un numero limitato di mezzi di trasporto, in generale eterogenei, e di capacitá limitata. Le visite devono essere effettuate rispettando finestre temporali che indicano i periodi di apertura dei punti di interesse; per questi, inoltre, é specificato un numero massimo di visite ammesse. L’obiettivo é di organizzare il carico dei mezzi di trasporto e le rotte intraprese in modo da massimizzare la soddisfazione complessiva dei gruppi di turisti nel rispetto dei vincoli imposti. Viene presentato un algoritmo euristico basato su Tabu Search appositamente ideato e progettato per la risoluzione del BTP. Vengono presentati gli esperimenti effettuati riguardo la messa appunto dei parametri dell'algoritmo su un insieme di problemi di benchmark. Vengono presentati risultati estesi riguardo le soluzioni dei problemi. Infine, vengono presentate considerazioni ed indicazioni di sviluppo futuro in materia.
Resumo:
L’H2 è un vettore energetico di elevato interesse, utilizzato nell’industria chimica per la produzione di NH3 e CH3OH, oltre che per le reazioni di idrogenazione ed HDS. Un importante processo nella produzione di H2 è la reazione di Water Gas Shift (WGS), usata nel trattamento delle correnti uscenti dal reattore di Steam Reforming (SR) del metano: CO + H2O CO2 + H2 ∆H0298K = -41,2 KJ/mol. Sulla base di precedenti lavori, sono stati sviluppati nuovi catalizzatori per la reazione WGS ad alta temperatura (HTS), alternativi ai tradizionali sistemi a base di Fe/Cr, in considerazione dei vincoli economici (elevati valori del rapporto vapore/gas secco o S/DG) ed ambientali (formazione di CrVI) di questi sistemi. Partendo da sistemi Cu/Zn/Al con un basso contenuto di rame, ottenuti da precursori tipo idrotalcite (HT), stato studiato l’effetto dell’aggiunta di piccole quantità di alcuni promotori sull’attività e stabilità dei catalizzatori ottenuti, osservando un effetto positivo sulle caratteristiche fisiche, come l’aumento dell’area superficiale e della dispersione della fase attiva. I campioni contenenti i promotori erano inoltre caratterizzati da una maggiore stabilità termica e, in alcuni casi, da un’attività catalitica superiore a quella del catalizzatore di riferimento privo di promotori. L’aggiunta di piccole quantità di alcali alla formulazione con la migliore attività portava ad un ulteriore aumento di attività e di stabilità, attribuibile ad una minore formazione di coke sulla superficie. I sistemi più interessanti potevano operare anche a bassi valori del rapporto S/DG, interessanti dal punto di vista industriale. Lo studio dell’adsorbimento di CO mediante FT-IR ha permesso di ipotizzare la possibile natura della fase attiva nei sistemi. Infine, lo studio è stato esteso a sistemi per la reazione di WGS a media temperatura (MTS), osservando anche in questo caso un positivo effetto legato all’aggiunta di promotori, con un aumento dell’attività catalitica e della stabilità con il tempo di reazione.
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.
Resumo:
Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.
Resumo:
La tesi si propone in una prima parte di introdurre importanti concetti quali la reale forma della Terra, la definizione di quota ortometrica ed ondulazione geoidica ed i riferimenti rispetto a cui esse si misurano: ciò è necessario per descrivere la quota Helmert, la quota dinamica e la quota normale, ossia i sistemi di quote corrette per gravità attualmente utilizzati. Nella seconda parte le argomentazioni principali verteranno sui sistemi di riferimento verticali dei paesi europei e sull’importanza di unificare i datums in un’unica soluzione. Si elencheranno i vari tentativi di aggregazione dei sistemi che si sono susseguiti nella storia europea, con approfondimenti sulle loro caratteristiche e parametri statistici. Nella terza ed ultima parte, si discuterà della realizzazione più moderna di un sistema di riferimento verticale comune ai paesi comunitari, e si indicheranno le sue differenze rispetto ai sistemi precedenti. Si concluderà l’elaborato con un breve accenno sul futuro dei datum verticali europei.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di approfondire i processi di rigenerazione cosiddetti bottom-up o dal basso, poiché sono promossi da gruppi di cittadini, associazioni, cooperative o altre forme del terzo settore, che, esprimendo le proprie esigenze ed idee innovative, ottengono poi approvazione dall’amministrazione o dai proprietari dei beni. Si tratta di un fenomeno ancora poco presente in letteratura, poiché piuttosto recente e tuttora riscontrabile in maniera spontanea e disorganica. Per questo motivo una congrua parte della ricerca si è concentrata sull’analisi di casi studio italiani, per i quali sono state eseguite interviste ai protagonisti e sopralluoghi al fine di comprendere nel dettaglio il processo di riattivazione. A questi, si sono poi studiati alcuni esempi di realtà associative che mirano a mappare e a sistematizzare il fenomeno dell’abbandono architettonico. Sebbene le esperienze si siano dimostrate differenti tra loro e specifiche per il contesto e il territorio in cui sono collocate. si sono tuttavia individuate caratteristiche e dinamiche comuni che inducono a pensare a una tipologia di processo. Alla luce delle analisi dei casi studio, si è formulata una strategia possibile per un edificio che pur serbando valore storico e grandi potenzialità, si trova in stato di abbandono da più di quaranta anni: Villa Ghigi a Bologna. Si tratta di un’ex-villa padronale, all’interno di uno dei più importanti parchi pubblici bolognesi per la sua varietà vegetale e animale e per la sua posizione prossima al centro storico. Il progetto-processo che si propone si fonda su ipotesi realistiche e concrete di rigenerazione e si sviluppa secondo cinque fasi temporali differenti. Nell’iter si è infatti previsto l’alternarsi di momenti più astratti, incentrati sul networking e la definizione di prospettive, con tempi più fisici. dedicati all’intervento architettonico e alle trasformazioni concrete.
Resumo:
La tesi nasce da una collaborazione di ricerca, attiva da anni, tra il DISTART - Area Topografia ed il Dipartimento di Archeologia dell’Università di Bologna, impegnato da lungo tempo in scavi archeologici nella regione egiziana del Fayyum. Lo scopo di questa tesi è offrire un contributo alla creazione di un database multiscala di informazioni georeferenziate, che possa essere di supporto ad ulteriori approfondimenti sul territorio del Fayyum. Il raggiungimento degli obiettivi preposti è stato perseguito mediante l’utilizzo sistematico di algoritmi di classificazione su immagini satellitari a media risoluzione registrate ed ortorettificate. Per quanto riguarda la classificazione litologica, sulla base delle informazioni presenti in letteratura, è stata ottenuta una mappa della fascia desertica che circonda l’oasi, in cui sono distinte diverse tipologie: sabbie sciolte recenti, arenarie mioceniche, calcareniti dell’Eocene superiore, calcari dell’Eocene medio, basalti tardo-oligocenici. Inoltre è stata messa a punto una procedura per giungere ad una classificazione almeno in parte automatica di anomalie sul terreno che presentano una forma lineare. L’applicazione di questa procedura potrà rivelarsi utile per ulteriori indagini finalizzate alla individuazione di paleocanali, naturali o artificiali, ed alla ricostruzione dell’assetto idrografico nel passato.
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.