614 resultados para modelli istereticiopensees
Resumo:
In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.
Resumo:
Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perchè questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perchè l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perché, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
Il GPL, a causa della sua infiammabilità, può dare luogo a scenari d’incendio e di esplosione. Particolarmente pericoloso è lo scenario del BLEVE – Boiling Liquid Expanding Vapor Explosion, seguito da un incendio del tipo fireball. Una strategia per la riduzione del rischio imputabile a tale scenario è rappresentato dall’applicazione di protezioni passive antincendio. Le misure di protezione passive antincendio sono costituite dall’applicazione al recipiente di GPL di una coibentazione termica, che ritardi il tempo di cedimento dell’apparecchiatura nel caso di esposizione al fuoco e quindi riduce la frequenza del BLEVE e della conseguente fireball, fornendo un lasso di tempo sufficiente per consentire l'avvio di azioni di mitigazione. Nel presente lavoro di tesi si è effettuata l’analisi costi-benefici dell’applicazione di protezioni passive alle autobotti per il trasporto stradale di GPL. Si è applicato un metodo semplificato per l’analisi sopracitata, considerando l’influenza delle incertezze sul risultato finale In particolare sono state considerate le incertezze derivanti dal modello d‘irraggiamento, dal modello di danno e dalle assunzioni in merito alla descrizione della popolazione nell’area di impatto dell’incidente. Il lavoro di tesi è così strutturato. Nel capitolo 1, di carattere introduttivo, sono riportate informazioni sul GPL, sugli scenari incidentali a cui dà origine e sulle protezioni passive antincendio. Nel capitolo 2 vengono descritti i modelli matematici per la simulazione della fireball, considerando sia i modelli per la stima dell’irraggiamento che quelli per il calcolo della probabilità di morte. Il capitolo 3 contiene la descrizione del modello semplificato di analisi costi-benefici ed il calcolo dell’area di impatto equivalente della fireball. Il capitolo 4 contiene l’applicazione del modello di analisi costi-benefici ad alcuni casi di studio reali. Il capitolo 5, infine, contiene le considerazioni conclusive.
Resumo:
Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.
Resumo:
The study of dielectric properties concerns storage and dissipation of electric and magnetic energy in materials. Dielectrics are important in order to explain various phenomena in Solid-State Physics and in Physics of Biological Materials. Indeed, during the last two centuries, many scientists have tried to explain and model the dielectric relaxation. Starting from the Kohlrausch model and passing through the ideal Debye one, they arrived at more com- plex models that try to explain the experimentally observed distributions of relaxation times, including the classical (Cole-Cole, Davidson-Cole and Havriliak-Negami) and the more recent ones (Hilfer, Jonscher, Weron, etc.). The purpose of this thesis is to discuss a variety of models carrying out the analysis both in the frequency and in the time domain. Particular attention is devoted to the three classical models, that are studied using a transcendental function known as Mittag-Leffler function. We highlight that one of the most important properties of this function, its complete monotonicity, is an essential property for the physical acceptability and realizability of the models. Lo studio delle proprietà dielettriche riguarda l’immagazzinamento e la dissipazione di energia elettrica e magnetica nei materiali. I dielettrici sono importanti al fine di spiegare vari fenomeni nell’ambito della Fisica dello Stato Solido e della Fisica dei Materiali Biologici. Infatti, durante i due secoli passati, molti scienziati hanno tentato di spiegare e modellizzare il rilassamento dielettrico. A partire dal modello di Kohlrausch e passando attraverso quello ideale di Debye, sono giunti a modelli più complessi che tentano di spiegare la distribuzione osservata sperimentalmente di tempi di rilassamento, tra i quali modelli abbiamo quelli classici (Cole-Cole, Davidson-Cole e Havriliak-Negami) e quelli più recenti (Hilfer, Jonscher, Weron, etc.). L’obiettivo di questa tesi è discutere vari modelli, conducendo l’analisi sia nel dominio delle frequenze sia in quello dei tempi. Particolare attenzione è rivolta ai tre modelli classici, i quali sono studiati utilizzando una funzione trascendente nota come funzione di Mittag-Leffler. Evidenziamo come una delle più importanti proprietà di questa funzione, la sua completa monotonia, è una proprietà essenziale per l’accettabilità fisica e la realizzabilità dei modelli.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.
Resumo:
In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.
Resumo:
Allosaurus fragilis (Theropoda: Carnosauria) è tra i dinosauri del Giurassico Superiore meglio conosciuti grazie a numerosi scheletri rinvenuti a partire dal secolo scorso. Le collezioni del Museo Universitario Paleontologico del Dipartimento di Scienze Chimiche e Geologiche dell'Università di Modena e Reggio Emilia ospitano uno scheletro costituito da reperti originali provenienti dal Cleveland-Lloyd Dinosaur Quarry (Utah) ad oggi non descritto in dettaglio. Il temporaneo disallestimento dello scheletro per la realizzazione di una nuova struttura museale ha permesso di esaminare in dettaglio i singoli elementi scheletrici. La storia di come e quando il materiale sia giunto a Modena rimane incerta, e per questo lavoro si è raccolta tutta la documentazione storica per completare le informazioni relative all'esemplare. In questa tesi vengono inoltre descritti alcuni degli elementi più diagnostici al fine di verificare se lo scheletro rappresenta uno o più individui di Allosaurus fragilis, la specie più abbondante e meglio documentata del Cleveland-Lloyd Dinosaur Quarry. Per questo obiettivo le ossa sono state confrontate con esemplari di riferimento in letteratura e inquadrate all'interno del contesto tafonomico del sito di ritrovamento. Durante le fasi di studio, i reperti esaminati sono stati acquisiti come modelli tridimensionali ad alta risoluzione mediante tecniche fotogrammetriche. Questo per garantire fruibilità ai singoli elementi anche in seguito al riallestimento dello scheletro per fini espositivi. I dati raccolti in questa tesi, ed in particolare 1. l’analisi del contesto tafonomico e tassonomico del Cleveland-Lloyd Dinosaur Quarry; 2. il confronto morfometrico tra le ossa presenti a Modena e quelle descritte in letteratura, e 3. le caratteristiche specifiche dei reperti esaminati, permettono di chiarire numerosi aspetti legati alla storia del reperto e al numero di individui rappresentati dallo scheletro di Allosaurus fragilis del Museo di Modena.
Resumo:
In questa tesi sono stati simulati i modelli circuitali relativi alle tecniche di estrazione SECE, Q-SECE e SSHI. Sono state graficate e analizzate le caratteristiche di trasferimento di potenza. Tramite simulazioni LTspice, è stata calcolata l'energia estratta con tecnica SECE e Q-SECE ed è stato ricavato un miglioramento delle prestazioni di energia di +30% con la tecnica Q-SECE. Un'analisi simile è stata fatta per il calcolo dell'energia in uscita anche per il modello SSHI-parallel.
Resumo:
Le fratture vertebrali sono tra le principali cause dell’incremento della mortalità. Queste sono dovute principalmente a traumi, tumori o particolari patologie metaboliche che colpiscono l’osso. Il tratto maggiormente interessato è quello toraco-lombare in quanto deve sopportare la maggior parte dei carichi. Risulta quindi necessario comprendere come la colonna vertebrale risponde ai carichi così da studiare e sviluppare nuovi protocolli e trattamenti per disordini del tratto spinale. Informazioni quantitative possono essere ottenute mediante test in vitro. Questi hanno alcune limitazioni dovute principalmente alla difficoltà di misurare le tensioni e le deformazioni in zone diverse dalla superficie, alla complessità e al costo delle prove. Un altro limite delle prove in vitro è rappresentato dal fatto che ciascun campione può essere testato a rottura una volta sola. Queste problematiche possono essere superate con l’utilizzo contemporaneo di modelli matematici e test in vitro. In particolare i test in vitro sono utilizzati in fase di validazione del modello matematico, ovvero nella determinazione di quanto il modello è una rappresentazione del comportamento reale che si sta simulando. Il presente lavoro di tesi si inserisce in un progetto di caratterizzazione di vertebre toraco-lombari utilizzate per la validazione di un modello agli elementi finiti. In particolare l’obiettivo dello studio è stata la realizzazione di prove meccaniche in modo da replicare l’anterior wedge fracture. Tali prove sono state effettuate presso il Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna. Gli spostamenti registrati durante le prove sono stati utilizzati dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli come condizioni al contorno per la realizzazione di un modello FE. Una volta validato e messo a punto, il modello sarà utilizzato per valutare lo stato di salute della colonna vertebrale in vivo.
Resumo:
Analisi relativa al fenomeno dell'aderenza, riguardante sia il contatto tra pneumatico e strada, sia il contatto tra ruota e rotaia. Caratteristiche e applicazioni dei sistemi di trasporto su gomma a guida vincolata, precisamente: sistema Translohr, sistemi metropolitani leggeri AGT e sistemi su monorotaia. Conclusioni inerenti pregi e difetti dell'utilizzo di ruote gommate da parte dei sistemi a guida vincolata.
Resumo:
L’installazione di smorzatori viscosi sulle strutture permette di dissipare l’energia che il sisma trasmette, senza provocare danni o rotture degli elementi strutturali principali. Questi dispositivi sono stati l'oggetto di numerosi lavori di ricerca dal 1980 fino ad oggi e l'efficacia nel mitigare gli effetti dell’azione sismica su strutture edilizie è stata ampiamente dimostrata. La maggior parte delle teorie scientifiche per la progettazione e l'ottimizzazione degli smorzatori si basano sofisticati algoritmi, portando talvolta a complessi procedure. L'applicazione di tali algoritmi richiede spesso competenze computazionali e di tempo eccessive. Il fine della tesi è quello di proporre un metodo pratico, cioè diretto e immediato per aiutare gli ingegneri per effettuare analisi sismiche su strutture intelaiate dotate di smorzatori viscosi e di dimensionare tali dispositivi. Tale metodo è stato l’oggetto del lavoro di ricerca scientifica trattato nell’articolo: “Equivalent Static Analyses of framed structures with added viscous dampers” di Palermo et al., 2015. Si riesce così ad estendere così il concetto di analisi statica equivalente anche per strutture dotate di smorzatori viscosi, definendo in maniera intuitiva sia le configurazioni di idealizzazione della strutture durante il sisma sia l’ idealizzazione dell’effetto del sisma sulla struttura. In questi anni di lavoro di ricerca, sono stati proposti vari metodi per il dimensionamento degli smorzatori viscosi. Tra questi, il prof. Ing. Silvestri (Silvestri et al., 2010) ha proposto un approccio progettuale diretto, chiamato "five step procedure” che mira a guidare l'ingegnere professionista, dalla scelta del target di prestazioni alle identificazioni della caratteristiche meccaniche di smorzatori viscosi trovabili in commercio. La procedura originale (Silvestri et al., 2010, Silvestri et al., 2011, Palermo et al., 2013), anche se per lo più basata su espressioni analitiche, richiede ancora lo sviluppo di analisi numeriche Time-History di modelli FEM, al fine di valutare le forze massime negli smorzatori aggiunti. Verrà spiegato e proposto un metodo semplificato (“Direct five step procedure for the dimensioning of added viscous dampers” Palermo et al., 2015) che consente ottenere direttamente, tramite una semplice formula, le forze massime degli smorzatori (spesso un parametro chiave della valutazione del costo degli smorzatori), senza eseguire simulazioni numeriche. Infine, si è applicato il metodo semplificato proposto di analisi statica equivalente per strutture equipaggiate di smorzatori viscosi ad un edificio reale.