356 resultados para Approssimazione, interpolazione, polinomi,funzioni,regolarizzazione
Resumo:
I Polar Codes sono la prima classe di codici a correzione d’errore di cui è stato dimostrato il raggiungimento della capacità per ogni canale simmetrico, discreto e senza memoria, grazie ad un nuovo metodo introdotto recentemente, chiamato ”Channel Polarization”. In questa tesi verranno descritti in dettaglio i principali algoritmi di codifica e decodifica. In particolare verranno confrontate le prestazioni dei simulatori sviluppati per il ”Successive Cancellation Decoder” e per il ”Successive Cancellation List Decoder” rispetto ai risultati riportati in letteratura. Al fine di migliorare la distanza minima e di conseguenza le prestazioni, utilizzeremo uno schema concatenato con il polar code come codice interno ed un CRC come codice esterno. Proporremo inoltre una nuova tecnica per analizzare la channel polarization nel caso di trasmissione su canale AWGN che risulta il modello statistico più appropriato per le comunicazioni satellitari e nelle applicazioni deep space. In aggiunta, investigheremo l’importanza di una accurata approssimazione delle funzioni di polarizzazione.
Resumo:
Il documento analizza i vantaggi introdotti nel mondo delle telecomunicazioni dai paradigmi di Software Defined Networking e Network Functions Virtualization: questi nuovi approcci permettono di creare reti programmabili e dinamiche, mantenendo alte le prestazioni. L’obiettivo finale è quello di capire se tramite la generalizzazione del codice del controller SDN , il dispositivo programmabile che permette di gestire gli switch OpenFlow, e la virtualizzazione delle reti, si possa risolvere il problema dell’ossificazione della rete Internet.
Resumo:
Nella presente tesi è stato sviluppato un sistema di acquisizione automatico finalizzato allo studio del breast microwave imaging. Le misure sono state eseguite in configurazione monostatica, in cui viene acquisito un segnale da diverse posizioni lungo il perimetro dell’area di indagine. A questo scopo, è stato installato un motore ad alta precisione che permette la rotazione del fantoccio e l’esecuzione automatica delle misure da un numero di posizioni fissato. Per automatizzare il processo di acquisizione, è stato inoltre sviluppato appositamente un software in ambiente LabView. Successivamente, è stata eseguita una intensa sessione di misure finalizzate alla caratterizzazione del sistema sviluppato al variare delle condizioni di misura. Abbiamo quindi utilizzato dei fantocci di tumore di diverse dimensioni e permittività elettrica per studiare la sensibilità della strumentazione in condizione di mezzo omogeneo. Dall’analisi delle ricostruzioni multifrequenza effettuate tramite diversi algoritmi di tipo TR-MUSIC sul range di frequenze selezionato, abbiamo notato che il tumore è ricostruito correttamente in tutti gli scenari testati. Inoltre, abbiamo creato un ulteriore fantoccio per simulare la presenza di una disomogeneità nel dominio di imaging. In questo caso, abbiamo studiato le performances del sistema di acquisizione al variare della posizione del tumore, le cui caratteristiche sono state fissate, e della permittività associata al fantoccio. Dall’analisi dei risultati appare che le performances di ricostruzione sono condizionate dalla presenza della disomogeneità, in modo particolare se il tumore è posizionato all’interno di essa. Infine, abbiamo studiato delle performance di due algoritmi di ricostruzione 3D: uno di essi è basato sulla sovrappo- sizione tomografica e sfrutta metodi di interpolazione, l’altro si basa sull’utilizzo di un propagatore 3D per il dipolo Hertziano in approssimazione scalare.
Resumo:
Il metodo Hartree-Fock permette di determinare approssimativamente la funzione d'onda e l'energia per atomi a più elettroni in uno stato stazionario. Più in generale, si applica a sistemi quantistici a N-corpi, per studiare, ad esempio, gli elettroni nelle molecole e nei solidi. Il punto di partenza di questo metodo è il modello della particella indipendente; sotto questa ipotesi, ogni elettrone del sistema è descritto dalla propria funzione d'onda. Il contributo di D. R. Hartree allo studio della struttura di atomi complessi consiste nell'aver formulato le equazioni per le funzioni d'onda dei singoli elettroni usando argomentazioni intuitive e nell'avere inoltre proposto, per la loro risoluzione, una procedura iterativa basata sul requisito di autoconsistenza. La generalizzazione del suo metodo, che tiene conto del requisito di antisimmetria imposto dal principio di esclusione di Pauli, fu formulata da V. A. Fock e J. C. Slater. Con tale tecnica si assume che la funzione d'onda totale a N-elettroni sia un determinante di Slater, ovvero un prodotto antisimmetrico di orbitali relativi a singoli elettroni. Il determinante di Slater ottimale si ottiene usando il metodo variazionale per individuare i migliori spin-orbitali.
Resumo:
In questa tesi riportiamo le definizioni ed i risultati principali relativi alla corrispondenza tra le successioni di polinomi di tipo binomiale (particolari basi dello spazio dei polinomi a coefficienti reali) e gli operatori delta, cioè operatori lineari sullo spazio dei polinomi che commutano con gli operatori di traslazione e il cui nucleo è costituito dai polinomi costanti. Nel capitolo 1 richiamiamo i concetti fondamentali sull'algebra delle serie formali e definiamo l'algebra degli operatori lineari invarianti per traslazione, dimostrando in particolare l'isomorfismo tra queste algebre. Nel capitolo 2, dopo aver dimostrato l'unicità della successione di base relativa ad un operatore delta, ricaviamo come esempio le successioni di base di tre operatori delta, che useremo durante tutto il capitolo: l'operatore derivata, l'operatore di differenza in avanti e l'operatore di differenza all'indietro. Arriviamo quindi a dimostrare un importante risultato, il Primo Teorema di Sviluppo, in cui facciamo vedere come le potenze di un operatore delta siano una base per l'algebra degli operatori invarianti per traslazione. Introducendo poi le successioni di Sheffer, possiamo dimostrare anche il Secondo Teorema di Sviluppo in cui esplicitiamo l'azione di un operatore invariante per traslazione su un polinomio, tramite un operatore delta fissato e una sua successione di Sheffer. Nell'ultima parte della tesi presentiamo i formalismi e alcune semplici operazioni del calcolo umbrale, che useremo per determinare le cosiddette costanti di connessione, ovvero le costanti che definiscono lo sviluppo di una successione binomiale in funzione di un'altra successione binomiale usata come base dello spazio dei polinomi.
Resumo:
Nell'ambito della meccanica quantistica è stato sviluppato uno strumento di calcolo al fine di studiare sistemi per i quali è troppo difficile risolvere il problema di Schrödinger. Esso si basa sull'idea di considerare un sistema semplice, totalmente risolvibile, e perturbarlo fino ad ottenere un'Hamiltoniana simile a quella che si vuole studiare. In questo modo le soluzioni del sistema più complicato sono le soluzioni note del problema semplice corrette da sviluppi in serie della perturbazione. Nonostante il grande successo della Teoria perturbativa, essendo una tecnica di approssimazione, presenta delle limitazioni e non può essere usata in ogni circostanza. In questo lavoro di tesi è stata valutata l'efficacia della Teoria perturbativa ricercando la compatibilità tra le soluzioni trovate col metodo analitico e quelle esatte ottenute numericamente. A tale scopo è stato usato il sistema fisico dell'oscillatore anarmonico, ovvero un oscillatore armonico standard sottoposto ad una perturbazione quartica. Per l'analisi numerica invece è stato utilizzato il programma Wolfram Mathematica. La trattazione seguita ha dimostrato che la Teoria perturbativa funziona molto bene in condizioni di bassa energia e di piccole perturbazioni. Nel momento in cui il livello energetico aumenta e l'intensità della perturbazione diventa significativa, i risultati analitici cominciano a divergere da quelli ottenuti numericamente.
Resumo:
Il vantaggio di una regolarizzazione multiparametro sta nel fatto che scegliendo un parametro diverso per ogni punto della soluzione si ricostruiscono con più accuratezza i picchi e le regioni piatte. In una prima fase di sperimentazione si è applicato l'algoritmo UPEN ad alcuni problemi test del Regularization Tools e si è osservato che l'algoritmo produce ottimi risultati inquesto ambito. In una seconda fase di sperimentazione si sono confrontati i dati ottenuti da UPEN con quelli derivanti da altri criteri di scelta noti in letteratura. Si è anche condotta un'analisi su dati simulati di risonanza magnetica nucleare e su problemi di deblurring di un'immagine.
Resumo:
Teoria delle funzioni di matrici. Spiegazione del concetto di network, proprietà rilevanti rilevate attraverso determinate funzioni di matrici. Applicazione della teoria a due esempi di network reali.
Resumo:
In questo elaborato ho analizzato un sistema di reazione-diffusione proposto come modello per descrivere un fenomeno di crescita tumorale. In particolare, è stato approfondito il processo in cui l'invasione neoplastica è originata dalla produzione di un eccesso di ioni acidi da parte delle cellule maligne. Il sistema preso in esame descrive l'andamento di tre grandezze: la concentrazione di tessuto sano, la concentrazione di tessuto maligno e l'eccesso di ioni acidi. Ho quindi cercato soluzioni compatibili con il sistema le quali fossero funzioni della tipologia travelling waves, ossia onde che si propagano lungo l'asse reale con un grafico fissato e ad una velocità costante. I risultati ottenuti in questo lavoro sono stati così suddivisi: nel Capitolo 1 viene descritto il processo di invasione tumorale dal punto di vista biologico, nel Capitolo 2 vengono forniti alcuni lemmi e proposizioni preliminari, nel Capitolo 3 viene calcolata un'approssimazione della soluzione del sistema tramite onde del tipo slow waves e infine nel Capitolo 4 sono state studiate la presenza e la larghezza dello spazio interstiziale, ossia di una regione situata tra il tessuto sano e quello neoplastico nella quale si registra una concentrazione di cellule, sia normali sia maligne, praticamente nulla. Infine, sono state rappresentate graficamente le soluzioni in tre possibili situazioni caratterizzate da un diverso parametro di aggressività del tumore.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
Il presente lavoro tratta lo studio dei fenomeni aeroelastici di interazione fra fluido e struttura, con il fine di provare a simularli mediante l’ausilio di un codice agli elementi finiti. Nel primo capitolo sono fornite alcune nozioni di fluidodinamica, in modo da rendere chiari i passaggi teorici fondamentali che portano alle equazioni di Navier-Stokes governanti il moto dei fluidi viscosi. Inoltre è illustrato il fenomeno della formazione di vortici a valle dei corpi tozzi dovuto alla separazione dello strato limite laminare, con descrizione anche di alcuni risultati ottenuti dalle simulazioni numeriche. Nel secondo capitolo vengono presi in rassegna i principali fenomeni di interazione fra fluido e struttura, cercando di metterne in luce le fondamenta della trattazione analitica e le ipotesi sotto le quali tale trattazione è valida. Chiaramente si tratta solo di una panoramica che non entra in merito degli sviluppi della ricerca più recente ma fornisce le basi per affrontare i vari problemi di instabilità strutturale dovuti a un particolare fenomeno di interazione con il vento. Il terzo capitolo contiene una trattazione più approfondita del fenomeno di instabilità per flutter. Tra tutti i fenomeni di instabilità aeroelastica delle strutture il flutter risulta il più temibile, soprattutto per i ponti di grande luce. Per questo si è ritenuto opportuno dedicargli un capitolo, in modo da illustrare i vari procedimenti con cui si riesce a determinare analiticamente la velocità critica di flutter di un impalcato da ponte, a partire dalle funzioni sperimentali denominate derivate di flutter. Al termine del capitolo è illustrato il procedimento con cui si ricavano sperimentalmente le derivate di flutter di un impalcato da ponte. Nel quarto capitolo è presentato l’esempio di studio dell’impalcato del ponte Tsing Ma ad Hong Kong. Sono riportati i risultati analitici dei calcoli della velocità di flutter e di divergenza torsionale dell’impalcato e i risultati delle simulazioni numeriche effettuate per stimare i coefficienti aerodinamici statici e il comportamento dinamico della struttura soggetta all’azione del vento. Considerazioni e commenti sui risultati ottenuti e sui metodi di modellazione numerica adottati completano l’elaborato.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
Prima di parlare di lotto zero, credo sia opportuno inquadrare in modo più preciso il significato che riveste la Secante per Cesena. La Secante è senza dubbio l’opera più rilevante e strategica in assoluto degli ultimi decenni ed è destinata a incidere in modo profondo (almeno così ci auguriamo) sulla vita della città, contribuendo a migliorarla sensibilmente. A questa arteria è affidato il compito di raccogliere tutto il traffico di attraversamento di Cesena, e specialmente quello rappresentato dai mezzi pesanti, che gravita principalmente sulla via Emilia, creando da tempo una situazione difficile, ma che negli ultimi anni è divenuta pressoché insostenibile: sono molte migliaia i veicoli che ogni giorno percorrono questa strada che già dalla fine degli anni Sessanta ha cessato di essere periferica e che ai giorni nostri fa ormai parte del centro urbano. La Secante, una volta completata, porrà un rimedio definitivo a questa situazione: secondo le previsioni, sarà in grado di smaltire in modo efficiente circa 40mila veicoli al giorno e, quindi, di rispondere alle necessità di circolazione della città per almeno i prossimi 20-30 anni. Proprio per l’importanza che il nuovo asse di collegamento riveste, diventa fondamentale garantirne la massima fruibilità, dedicando estrema attenzione non solo alla funzionalità della struttura in sé ( per altro progettata con criteri d’avanguardia, soprattutto per la parte in galleria, che si configura come il primo eco-tunnel italiano ), ma anche al complesso delle opere di collegamento con la viabilità preesistente: svincoli, nodi stradali, nuove connessioni. È in questo quadro che si inserisce il cosiddetto “lotto zero”, cioè quel tratto stradale che prolungherà il primo lotto della Secante verso Forlì e avrà una lunghezza pari a circa 1 chilometro. Entrando nel dettaglio, questo lotto dovrà portare il traffico in uscita dalla Secante dalla via comunale San Cristoforo alla via Provinciale San Giuseppe, sicuramente più idonea a sopportare l’importante mole di traffico veicolare e meglio collegata alla viabilità principale. Il lotto zero si congiungerà con la via Emilia attraverso la già esistente rotatoria davanti al cimitero di Diegaro. Naturalmente, il nuovo tratto sarà dotato di barriere acustiche: si è pensato a strutture in lamiera di acciaio, con funzioni fonoassorbenti e fonoisolanti, per una lunghezza totale di circa 310 metri. Il costo complessivo dell’opera si aggira intorno ai 25 milioni di euro. Il Comune di Cesena considera questo intervento irrinunciabile, e per questo si stanno valutando le soluzioni più opportune per una sua realizzazione in tempi ragionevolmente brevi. Non a caso, per accelerare le procedure già nel 2004 l’Amministrazione Comunale di Cesena e l’Amministrazione Provinciale di Forlì – Cesena hanno deciso di finanziare direttamente il progetto, e sono stati avviati contatti con i ministeri delle Infrastrutture e dell’Ambiente per sollecitarne l’approvazione e la conseguente disponibilità di fondi. D’altro canto, non si può dimenticare che il lotto zero s’inserisce nella necessità più complessiva di un nuovo assetto della viabilità del territorio, che troverà una risposta definitiva con il progetto della cosiddetta via Emilia bis. Si tratta di un intervento prioritario non solo per Cesena, ma per tutta la Romagna, e che acquisisce un significato ancor più rilevante alla luce del recente progetto relativo alla Civitavecchia-Orte-Cesena-Ravenna-Mestre. In quest’ottica, il lotto zero assume una funzione indispensabile per armonizzare la grande circolazione che gravita sul nodo cesenate, destinato a diventare ancora più rilevante nel momento in cui si svilupperà la dorsale autostradale appenninica, la futura E45/E55.
Resumo:
I terreni di Treporti, nella laguna di Venezia, sono caratterizzati da una fitta alternanza di strati con caratteristiche di compressibilità fortemente variabili, pertanto risulta alquanto complessa la determinazione e la scelta di parametri appropriati per la progettazione. La costruzione del terrapieno sperimentale, ed il contemporaneo impiego dell'assestimetro a basi multiple, ha permesso di misurare il comportamento deformativo del terreno in sito e le analisi retrospettive hanno simulato, in base a parametri di tentativo, il comportamento nel tempo dei terreni di fondazione. L'analisi a posteriori delle deformazioni è stata confrontata con le misure effettuate nel corso degli anni precedenti la fase di scarico, mentre oltre questa fase è stata eseguita una previsione confrontata con le tre misure eseguite dopo la fase di scarico, ottenendo in entrambi i casi un buon accordo tra simulazioni e misure. L’aderenza quasi perfetta ottenuta tra le curve ε-t calcolate e le corrispondenti curve ε-t sperimentali, fa ritenere che tutti i parametri geotecnici ottenuti dal modello, rispecchino con buona approssimazione quelli realmente mobilitati dai 40 m di sottosuolo interessati dal carico. Pertanto anche i risultati ottenuti in ordine all'influenza della consolidazione secondaria sugli abbassamenti totali, debbono ritenersi con buona approssimazione vicini al comportamento reale. Il modello è anche in grado di descrivere molto bene i cedimenti dei diversi strati di terreno e quello del piano di posa.
Resumo:
Il seguente elaborato è la diretta conseguenza di un periodo di stage, pari a cinque mesi, svolto presso l’azienda INTERTABA S.p.A., a Zola Predosa (BO). Il Dipartimento presso cui è stato svolto il tirocinio è l’Engineering. In particolare è stata compiuta un’analisi dei KPIs presenti e sono state proposte delle azioni migliorative. Il lavoro si è sviluppato in tre fasi. Nella prima fase è stata fatta un’analisi dei KPIs attuali per ciascuna funzione appartenente all’Engineering: Engineering Support, Project Engineering, Plant & Utilities Maintenance, Technical Warehouse e General Services. Nella seconda fase sono state descritte, per ciascuna funzione, alcune proposte migliorative per i KPIs presenti. Infine, per alcune funzioni, sono state proposte alcune iniziative in merito all’implementazione di nuovi KPIs.