399 resultados para LZ77 compressione algoritmi CPS1 CPS2 fattorizzazione decodifica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversi elementi possono influenzare il comportamento dei conducenti mentre svolgono attività di guida. Dalle distrazioni visive a quelle cognitive, le emozioni (che potrebbero risultare da dati biometrici, come temperatura, battito cardiaco, pressione, ecc.) e le condizioni di altri conducenti, che possono svolgere un ruolo significativo, fungendo da fattore che può aumentare il tempo di risposta dei guidatori. Mantenere sotto controllo questi parametri potrebbe essere fondamentale per evitare situazioni pericolose, per decidere ed eseguire azioni che potrebbero influenzare il verificarsi di incidenti stradali. Questo volume analizza l'indice "Fitness-to-Drive" e mira a valutare come gli effetti dell'eccitazione possono influenzare lo stato dei conducenti. La tesi presenta alcune valutazioni sperimentali condotte su un simulatore di guida, discutendo i risultati ottenuti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente elaborato si propone di raccogliere e dettagliare il lavoro svolto presso l’azienda Motori Minarelli durante il tirocinio curricolare. Minarelli ha dato l’avvio ad un nuovo progetto di nome ISSIMO e conseguentemente si è trovata ad approcciare una nuova tipologia di prodotto da assemblare attraverso linea di montaggio: una bicicletta elettrica. Il compito dell’azienda bolognese era quello di progettare e implementare la linea produttiva per la commercializzazione dell’e-bike. Al giorno d’oggi una buona progettazione del ciclo produttivo è alla base per la generazione di prodotti eccellenti e di qualità, per questo il ciclo di assemblaggio è stato definito tramite l’applicazione di una serie di algoritmi euristici di line balancing, per definire la struttura della linea di montaggio e la sequenza di produzione. Si è divisa la trattazione in quattro parti distinte: la prima parte è una analisi storica che parte dalla nascita della catena di montaggio sino alla teoria degli algoritmi di bilanciamento; la seconda parte permette di calarsi nel contesto aziendale; la terza parte dettaglia il progetto ISSIMO nei dettagli e la quarta parte, quella sperimentale, mostra l’applicazione degli algoritmi alla linea di assemblaggio in esame.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il layout di un sistema di stoccaggio è un fattore caratteristico e cruciale nell’organizzazione del lavoro e dei flussi di materiale di un’azienda, se le condizioni di partenza non sono soddisfacenti è possibile passare da un layout AS-IS ad uno TO-BE che implementi alcune caratteristiche ricercate. Per intervenire sul layout AS-IS del magazzino in maniera funzionale, e poterne poi sviluppare uno in parte ex-novo, è stato necessario attraversare 3 diverse fasi che ridisegnassero il magazzino. Nella prima fase sono state applicate alcune tecniche di lean manufacturing con lo scopo di eliminare il superfluo e riorganizzare ciò che effettivamente fosse funzionale al lavoro eseguito quotidianamente. Lavorando assieme all’operatore addetto al magazzino è stato possibile raggiungere ottimi risultati sia da un punto di vista qualitativo che quantitativo. Nella seconda fase si è affrontato il problema dello storage assignment che consiste nell’assegnare la diversa merce all’interno del magazzino. Il maggior spazio ottenuto dall’applicazione delle tecniche di lean manufacturing è stato determinante per la scelta di una politica class-based storage. Utilizzando questa politica è stato possibile definire con precisione il numero e la grandezza dei reparti di cui necessitava il magazzino. Le prime due fasi ed i loro risultati operativi tra cui: maggior ordine creato, incremento dello spazio disponile e definizione dei reparti nel magazzino; sono stati fondamentali per poter applicare alcuni algoritmi euristici risolutivi che sviluppassero delle soluzioni di layout TO-BE. Non avendo flussi di materiali costanti ma basandosi soprattutto su lavoro a commessa o lavorazioni di manutenzione su prodotti già consegnati sono stati utilizzati unicamente degli algoritmi costruttivi. Nello specifico sono stati utilizzati 4 diversi algoritmi TCR, Aldep, Corelap e RDM per rendere l’intera trattazione più esaustiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il monitoraggio basato su emissioni acustiche (AE) guidate si è confermato tra le tecniche più affidabili nel campo del Non-Destructive Testing delle strutture planari, vista anche la sua semplicità implementativa, i bassi costi che lo caratterizzano, la non invasività e la possibilità di realizzare un sistema che agisca in maniera continuativa ed in tempo reale sfruttando reti di sensori permanentemente installati, senza la necessità di ispezioni periodiche. In tale contesto, è possibile sfruttare l’abilità dell’apprendimento automatico nell’individuazione dei pattern nascosti all’interno dei segnali grezzi registrati, ottenendo così informazioni utili ai fini dell’applicazione considerata. L’esecuzione on-edge dei modelli, ovvero sul punto di acquisizione, consente di superare le limitazioni imposte dal processamento centralizzato dei dati, con notevoli vantaggi in termini di consumo energetico, tempestività nella risposta ed integrità degli stessi. A questo scopo, si rivela però necessario sviluppare modelli compatibili con le stringenti risorse hardware dei dispositivi a basso costo tipicamente impiegati. In questo elaborato verranno prese in esame alcune tipologie di reti neurali artificiali per l’estrazione dell’istante di arrivo (ToA) di un’emissione acustica all’interno di una sequenza temporale, in particolare quelle convoluzionali (CNNs) ed una loro variante più recente, le CapsNet basate su rounting by agreement. L’individuazione dei ToA relativi al medesimo evento su segnali acquisiti in diverse posizioni spaziali consente infatti di localizzare la sorgente da cui esso è scaturito. Le dimensioni di questi modelli permettono di eseguire l’inferenza direttamente su edge-device. I risultati ottenuti confermano la maggiore robustezza delle tecniche di apprendimento profondo rispetto ai metodi statistici tradizionali nel far fronte a diverse tipologie di disturbo, in particolare negli scenari più critici dal punto di vista del rapporto segnale-rumore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo elaborato di tesi ha l’obbiettivo di studiare le limitazioni delle stazioni di terra nel tracciamento di satelliti in orbita LEO, investigare possibili soluzioni ed implementare queste soluzioni all’interno della Ground Station AMGS di Forlì per verificarne l’efficacia. A questo scopo, dopo un’attenta revisione della letteratura sono stati identificati due promettenti algoritmi descritti nei paper: “Trajectory optimisation to minimise antenna pointing error” di P. S. Crawford , R. J. H. Brush e “An optimal antenna motion generation using shortest path planning” di Moon-Jin Jeon , Dong-Soo Kwon. Questi algoritmi sono stati implementi in Python 3, al fine di inglobarli all’interno del software di tracking al momento in uso nella GS di Forlì, ovvero AMGS Orbit Predictor. All’interno di questo elaborato sono anche riportati i risultati dei test conseguiti e una valutazione dettagliata di questi ultimi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo principale di questo lavoro di tesi è quello di migliorare gli algoritmi di morphing generation in termini di qualità visiva e di potenzialità di attacco dei sistemi automatici di riconoscimento facciale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricerca di un'ottima qualità costruttiva è diventata, per ogni fornitore o produttore legato all’ambito automotive/motoristico, l’aspetto principale nella produzione di un veicolo, soprattutto nel caso specifico di un motore: per garantire, dunque, una buona qualità generale lungo tutta la gamma di produzione, è necessario avere una buona “ripetibilità” di costruzione, ossia, è fondamentale poter assemblare un alto numero di motori che siano il più possibile identici tra loro; considerando tutte le variabili che intervengono lungo la catena di produzione, a partire dalla banale lavorazione meccanica delle parti, fino all’assemblaggio stesso del motore. E' facilmente intuibile, pertanto, come non sia così raro avere delle leggere imperfezioni tra motore e motore che possono poi andare ad impattare sulla vita e sulle performance stesse del mezzo. Questo discorso è ancora più valido se si parla dell’ambito racing, in cui la qualità costruttiva, e, quindi, le performance, giocano un ruolo fondamentale nella progettazione di un motore, nonostante il volume produttivo sia tutto sommato piccolo. L’obiettivo dell'elaborato è quello di creare un metodo di controllo e di confronto della qualità/precisione costruttiva, intesa sia come qualità di produzione delle parti che di assemblaggio del motore finito. A partire da una scansione laser tridimensionale, sotto forma di una nuvola di punti, si è creato un software di elaborazione dati che permettesse di arrivare a calcolare il rapporto di compressione reale del motore in analisi e la mappa di squish tramite la sovrapposizione virtuale delle due scansioni relative ai cilindri/pistoni del blocco motore e la testa del motore stesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nellâ analisi del segnale EEG, sono di particolare interesse i potenziali evento correlato (ERP), che descrivono la risposta cerebrale in seguito alla presentazione di stimoli o eventi esterni o interni. Questi potenziali non sono immediatamente visibili sul tracciato EEG grezzo, ed è necessario, oltre ad unâ��accurata fase di preprocessing, mediare (averaging) i segnali di molti trial ripetuti per visualizzare tali risposte nel tempo. Questo studio ha posto l' attenzione sugli ERP visuomotori generati in un compito di center-out reaching, che prevede il raggiungimento di uno tra cinque target, ognuno associato ad un LED, mediante il braccio dominante, con una tempistica scandita dalla presentazione di due stimoli visivi: lo stimolo preparatorio ¸ (che indica il target) e lo stimolo imperativo (che dà il via libera al movimento). I segnali ERP, ottenuti mediante la tecnica dellâ averaging, sono stati analizzati sia a livello di scalpo, considerando i segnali di elettrodo, sia a livello di corteccia, dopo risoluzione del problema inverso, e considerando rappresentazioni prima a livello di singoli dipoli corticali e quindi di intere regioni corticali (ROI). Inoltre, è stata applicato un metodo di deep learning (rete neurale convoluzionale) per decodificare il segnale EEG a livello di singolo trial, ovvero classificare il target coinvolto nello specifico trial. La decodifica è stata applicata sia ai segnali di scalpo sia ai segnali delle ROI corticali. Complessivamente i risultati mostrano ERP ben visibili a livello di scalpo e legati sia a processing visivo che motorio. Gli ERP a livello di ROI corticali sono più rumorosi e sembrano cogliere meno processing motorio rispetto al visivo, presumibilmente anche in conseguenza di alcune scelte metodologiche nella ricostruzione di segnali di ROI. In linea con questo, le performance di decodifica sono migliori a livello di scalpo che di ROI corticali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli UAV, o meglio conosciuti come ‘droni’, sono aeromobili a pilotaggio remoto il cui utilizzo si estende dal settore militare a quello civile. Quest’ultimi, possono essere attrezzati con numerosi dispositivi accessori, come ad esempio disturbatori di frequenze. La simbiosi UAV-jammer attacca le comunicazioni wireless tramite interferenze a radiofrequenza, per degradare o interrompere il servizio offerto dalle reti. Questo elaborato, si concentra sull’analisi di algoritmi di localizzazione passiva, per stimare la posizione dell’UAV e interrompere l’interferenza. Inizialmente, viene descritto il segnale emesso dall’UAV, che utilizza lo standard di comunicazione 802.11a. A seguire, dato che la localizzazione passiva si basa sulle misure TDOA rilevate da una stazione di monitoraggio a terra, vengono presentati tre algoritmi di stima TDOA, tra i quali fast TDOA, adaptive threshold-based first tap detection e un algoritmo sviluppato per i nuovi sistemi GNSS. Successivamente, vengono esaminati tre algoritmi di localizzazione passiva, che sfruttano il principio dei minimi quadrati (LS), ovvero il CTLS, LCLS e CWLS. Infine, le prestazioni degli algoritmi di localizzazione vengono valutate in un ambiente di simulazione realistico, con canale AWGN o con canale ITU Extended pedestrian A.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi nasce da una collaborazione di ricerca, attiva da anni, tra il DISTART - Area Topografia ed il Dipartimento di Archeologia dell’Università di Bologna, impegnato da lungo tempo in scavi archeologici nella regione egiziana del Fayyum. Lo scopo di questa tesi è offrire un contributo alla creazione di un database multiscala di informazioni georeferenziate, che possa essere di supporto ad ulteriori approfondimenti sul territorio del Fayyum. Il raggiungimento degli obiettivi preposti è stato perseguito mediante l’utilizzo sistematico di algoritmi di classificazione su immagini satellitari a media risoluzione registrate ed ortorettificate. Per quanto riguarda la classificazione litologica, sulla base delle informazioni presenti in letteratura, è stata ottenuta una mappa della fascia desertica che circonda l’oasi, in cui sono distinte diverse tipologie: sabbie sciolte recenti, arenarie mioceniche, calcareniti dell’Eocene superiore, calcari dell’Eocene medio, basalti tardo-oligocenici. Inoltre è stata messa a punto una procedura per giungere ad una classificazione almeno in parte automatica di anomalie sul terreno che presentano una forma lineare. L’applicazione di questa procedura potrà rivelarsi utile per ulteriori indagini finalizzate alla individuazione di paleocanali, naturali o artificiali, ed alla ricostruzione dell’assetto idrografico nel passato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.