999 resultados para volte dissesti vulnerabilità miglioramento strutturale
Resumo:
Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.
Resumo:
Il presente lavoro si propone di analizzare il calcestruzzo armato come materiale da costruzione, in particolare focalizzando l’attenzione sulle tecniche di prevenzione di alcuni tipi di degrado con l’utilizzo di trattamenti superficiali. Il calcestruzzo è uno dei materiali da costruzione più utilizzati in quanto presenta molteplici vantaggi come la libertà di forma, il basso costo dei materiali ed il buon comportamento strutturale. Nonostante quanto detto, si possono evidenziare delle criticità inerenti all’utilizzo di questo materiale, il tema centrale di questo lavoro è quello di analizzare nuove tecniche di protezione atte a salvaguardare la struttura da tre diverse tipologie di degrado, valutandone l’effettiva efficacia nell’ottenere quello per cui sono state previste. Nei primi capitoli si esaminerà il calcestruzzo come materiale da costruzione e saranno spiegati i processi che il conglomerato cementizio deve compiere per diventare un materiale indurito e resistente. Nel terzo capitolo si affronteranno, senza entrare nella descrizione puntuale di ciascuna di esse, le diverse cause di degrado del calcestruzzo armato. Infine nel quarto ed ultimo capitolo, verranno esposti tre casi studio: il primo tratta di un tipo di degrado spesso non preso in considerazione ma causante ingenti danni all’aspetto paesaggistico e al patrimonio storico: si analizzano i rivestimenti da poter applicare al calcestruzzo per rendere più semplificato il processo di rimozione dai graffiti. Il secondo si ripromette di analizzare l’efficacia nel proteggere le armature di acciaio dalla corrosione per mezzo un nuovo tipo di pigmenti core-shell poco costosi ma soprattutto ecosostenibili. Infine si porrà lo sguardo su un problema non indifferente ovvero quello della protezione del calcestruzzo armato dalle alte temperature anche in questo caso utilizzando un trattamento superficiale volto a migliorare le performance del calcestruzzo durante l’incendio.
Resumo:
La Blockchain è un deposito di dati distribuito costituito da una lista di record (in continua crescita) resistente a modifiche e revisioni, anche da parte degli operatori dei nodi (computer) su cui risiede. I dati sono sicuri anche in presenza di partecipanti non affidabili o disonesti alla rete. Una copia totale o parziale della blockchain è memorizzata su tutti i nodi. I record contenuti sono di due tipi: le transazioni, che sono i dati veri e propri, e i blocchi, che sono la registrazione di quanto ed in quale ordine le transazioni sono state inserite in modo indelebile nel database. Le transazioni sono create dai partecipanti alla rete nelle loro operazioni (per esempio, trasferimento di valuta ad un altro utente), mentre i blocchi sono generati da partecipanti speciali, i cosiddetti “miners”, che utilizzano software e a volte hardware specializzato per creare i blocchi. L’attività dei miners viene ricompensata con l’assegnazione di “qualcosa”, nel caso della rete Bitcoin di un certo numero di unità di valuta. Spesso negli esempi si fa riferimento alla Blockchain di Bitcoin perché è la catena di blocchi implementata per prima, e l'unica ad avere una dimensione consistente. Le transazioni, una volta create, vengono distribuite sui nodi con un protocollo del tipo “best effort”. La validità di una transazione viene verificata attraverso il consenso dei nodi della rete sulla base di una serie di parametri, che variano secondo l’implementazione specifica dell’architettura. Una volta verificata come valida, la transazione viene inserita nel primo blocco libero disponibile. Per evitare che ci sia una duplicazione delle informazioni l’architettura prevede un sistema di time stamping, che non richiede un server centralizzato.
Resumo:
Il primo capitolo verte su argomenti di musica e, dopo una breve premessa generale, ed alcuni cenni biografici di J. S. Bach, si passa ad una analisi strutturale di tipo aritmetico e geometrico su alcune sue famose composizioni, sottolineando in particolare la passione del grande compositore per la numerologia, esaminando l’importanza che il fattore numerologico sempre assume nelle sue opere. Il secondo capitolo verte su argomenti di matematica e tratta alcuni importanti aspetti della teoria dei grafi, del toro e dell’immersione di grafi in superfici. Il terzo capitolo, nel quale si fa riferimento agli argomenti dei primi due capitoli, è diviso in tre parti: la prima esamina alcuni principali fondamenti matematico-musicali, la seconda propone un excursus storico dalla scala pitagorica al temperamento equabile, la terza approfondisce il ciclo delle quinte, il Tonnetz e le teorie neo-riemanniane.
Resumo:
Il presente lavoro di tesi vuole focalizzare l’attenzione sull’impiego del GNL per la propulsione navale, analizzando aspetti legati alla sicurezza delle infrastrutture necessarie a tale scopo. Si sono considerati due diversi casi di studio: il primo riguarda un deposito costiero attrezzato per poter svolgere attività di rifornimento per imbarcazioni, mentre il secondo caso interessa una nave da trasporto passeggeri alimentata a GNL. È stata condotta un’analisi del rischio: l’identificazione dei pericoli ha seguito le linee guida proposte dalla metodologia MIMAH, oltre a sfruttare risultati di analisi HAZOP e HAZID. La stima delle frequenze di rilascio è stata effettuata con la tecnica della parts count, sulla base di valori ottenuti da database affidabilistici. La valutazione delle conseguenze è stata realizzata con il supporto del software DNV PHAST, utilizzando come riferimento i valori soglia proposti dal D.M. 9/5/2001. È stata infine impostata una modellazione fluidodinamica con lo scopo di valutare la possibilità di rottura catastrofica dei serbatoi di stoccaggio dovuta ad un’eccessiva pressurizzazione causata da una situazione di incendio esterno. Le simulazioni sono state condotte con il supporto del software CFD ANSYS® FLUENT® 17.2. Si è modellata una situazione di completo avvolgimento dalle fiamme considerando due geometrie di serbatoio diverse, nel caso di materiale isolante integro o danneggiato. I risultati ottenuti dall’analisi del rischio mostrano come i danni derivanti da un ipotetico scenario incidentale possano avere conseguenze anche significative, ma con valori di frequenze di accadimento tipici di situazioni rare. Lo studio fluidodinamico del comportamento di serbatoi di stoccaggio avvolti dalle fiamme ha evidenziato come questi siano capaci di resistere a condizioni gravose di incendio per tempi prolungati senza che si abbia una pressurizzazione tale da destare preoccupazione per l’integrità strutturale delle apparecchiature.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
La seguente tesi nasce dall’esigenza di ottimizzare, da un punto di vista acustico e prestazionale, un ventilatore centrifugo preesistente in azienda. Nei primi tre capitoli si è analizzato il problema da un punto di vista teorico, mentre nel terzo e quarto capitolo da un punto di vista computazionale sfruttando tecniche CFD. Nel primo capitolo è stata fatta una trattazione generale dei ventilatori centrifughi, concentrandosi sul tipo di problematiche a cui questi vanno incontro. Nel secondo capitolo è stata presentata la teoria che sta alla base di una rilevazione sperimentale e di un’analisi acustica. Unitamente a ciò sono stati riportati alcuni articoli che mostrano tecniche di ottimizzazione acustica in ventilatori centrifughi. Nel terzo capitolo è stata riassunta la teoria alla base della fluidodinamica e di uno studio fluidodinamico. Nel quarto capitolo viene spiegato come è stato creato il modello fluidodinamico. Si è optato per un’analisi del problema in stato stazionario, sfruttando il Moving Reference Frame, e considerando l’aria come incomprimibile, visto il ridotto numero di Mach. L’analisi acustica è stata effettuata nel post-processing sfruttando il modello di Proudman. Infine è stata dimostrata la correlazione che intercorre tra i tre punti della curva resistente del ventilatore di funzionamento reale, permettendo di estendere i risultati ricavati dalla analisi di uno di questi agli altri due. Nel quinto capitolo è stata effettuata un’analisi dei risultati ottenuti dalle simulazioni fluidodinamiche e sono state proposte diverse modifiche della geometria. La modifica scelta ha visto un miglioramento delle prestazioni e una minore rumorosità. Infine sono state proposte nelle conclusioni ulteriori possibili strade da percorre per un’indagine e ottimizzazione del ventilatore più accurata.
Resumo:
Il lavoro affronta le problematiche emerse per gli obbligazionisti subordinati a seguito dall'applicazione nel contesto italiano della nuova disciplina in materia di gestione delle crisi bancarie. Nella prima parte del lavoro sono stati analizzati gli orientamenti della Commissione europea in merito ai criteri adottati per valutare la compatibilità dell’intervento pubblico nel settore bancario e la loro evoluzione; sono inoltre illustrati i nuovi strumenti introdotti per gestire le crisi degli istituti creditizi operanti sul mercato unico. Nella seconda parte del lavoro, lo studio si è concentrato sull’analisi dello strumento obbligazionario e, in particolar modo, delle obbligazioni bancarie subordinate, in quanto, in caso di crisi dell’istituto di credito emittente, i sottoscrittori di questo strumento saranno – verosimilmente – la prima categoria di creditori chiamata a sopportare i costi della ristrutturazione. L’ultima parte del lavoro è dedicata all’esame del grado e di tutela offerto dall’ordinamento italiano ai creditori coinvolti nei dissesti di alcune banche italiane. Oltre alle decisioni adottate dalla magistratura italiana in merito, l’analisi ha riguardato anche le misure di indennizzo adottate dal legislatore a tutela dei risparmiatori danneggiati dalla crisi degli istituti in cui investirono.
Resumo:
Le attuali linee guida stratificano il rischio dei pazienti con ipertensione arteriosa polmonare (IAP) in basso, intermedio e alto (rispettivamente con mortalità a 1 anno <5%, 5-10% e >10%). La maggior parte dei pazienti è però classificata nella categoria intermedia. Per stratificare ulteriormente questi pazienti, abbiamo valutato il ruolo prognostico dello stroke volume index (SVI) misurato al cateterismo cardiaco destro (CCDx) in 725 pazienti naïve da terapia con IAP idiopatica/ereditaria, associata a malattie del tessuto connettivo o cardiopatie congenite. I pazienti sono stati valutati al basale e 3-4 mesi dopo l'inizio della terapia (1° F-UP) con CCDx, livelli plasmatici di peptide natriuretico cerebrale (BNP), test dei 6 minuti (T6M) e classe funzionale OMS. Abbiamo applicato una tabella di rischio semplificata utilizzando i criteri: classe funzionale OMS, T6M, pressione atriale destra o livelli plasmatici di BNP e indice cardiaco (IC) o saturazione di ossigeno venoso misto (SvO2). Le classi di rischio sono state definite come: basso= almeno 3 criteri a basso rischio e nessun criterio ad alto rischio; alto= almeno 2 criteri ad alto rischio inclusi IC o SvO2; intermedio= tutti gli altri casi. Lo SVI, mediante la regressione di Cox, stratifica la prognosi dei pazienti a rischio intermedio al 1° F-UP [p=0.008] ma non al basale [p=0.085]. Considerandone l’ottimale cut-off predittivo (38 ml/m2) i pazienti a rischio intermedio sono ulteriormente classificabili in intermedio-basso e intermedio-alto. Considerando l'effetto dei 3 principali farmaci che agiscono sulla via della prostaciclina in aggiunta alla duplice terapia di combinazione con inibitori della fosfodiesterasi-5 e antagonisti dell'endotelina, i pazienti trattati con epoprostenolo e.v. hanno ottenuto un maggiore miglioramento rispetto ai pazienti trattati con selexipag; col treprostinil s.c. vi è stata una risposta intermedia. Abbiamo quindi proposto un algoritmo di terapia con selexipag in pazienti a rischio intermedio-basso e con prostanoidi parenterali in pazienti a rischio intermedio-alto.
Resumo:
Background e scopo: Tradizionalmente la cardiomiopatia amiloidotica (CA) è stata considerata una cardiomiopatia restrittiva, ma studi recenti hanno evidenziato il ruolo anche della disfuzione sistolica nella sua fisiopatologia. In questo contesto recente, raramente è stato indagato il profilo emodinamico invasivo. Lo scopo dello studio è stato quello di caratterizzare il profilo emodinamico, strutturale e funzionale della CA nelle tre principali eziologie (amiloidosi da catene leggere (AL), amiloidosi transtiretino-relata (ATTR) mutata (ATTRm) e ‘wild-type’ (ATTRwt)), valutare le differenze del profilo ecocardiografico ed emodinamico nelle fasi diverse di malattia ed esplorare il ruolo prognostico delle principali variabili cliniche e strumentali nella CA. Metodi e risultati: Abbiamo analizzato retrospettivamente i dati di 224 pazienti con CA (AL, n=93; ATTRm, n=66; ATTRwt, n=65). Rispetto all'ATTRwt, i pazienti con AL presentano un minor interessamento morfologico cardiaco, ma dati emodinamici paragonabili, caratterizzati da elevate pressioni di riempimento biventricolari e riduzione della gittata sistolica. L’ATTRm, nonostante il profilo ecocardiografico analogo all’ATTRwt, mostra un quadro emodinamico migliore. Gli indici di funzione diastolica e sistolica longitudinale del ventricolo sinistro (Vsn) sono alterati fin dagli stadi iniziali della malattia, mentre la frazione di eiezione (FEVsn) rimane preservata nella maggior parte dei pazienti, anche nelle fasi avanzate (FEVsn 50 [37-60]%; FEVsn <40% nel 28% dei pazienti NYHA III / IV). All'analisi multivariata, età, NYHA III/I, eziologia AL, frazione di contrazione miocardica (MCF), indice cardiaco (CI) e pressione atriale destra (RAP) sono indipendentemente associati a eventi clinici avversi. Conclusioni Questo studio conferma la complessa fisiopatologia della CA, in cui la disfunzione diastolica è accompagnata da una funzione sistolica longitudinale anormale sin dalle fasi iniziali della malattia. L'AL e l'ATTRwt, nonostante diversi gradi di alterazioni morfologiche, hanno un profilo emodinamico simile; l'ATTRm, invece, presenta un quadro emodinamico migliore. Tra i parametri strumentali, MCF, CI e RAP emergono come predittori significativi di eventi avversi.
Resumo:
La ricerca si focalizza sul rapporto tra tecnologie abilitanti e corpo umano. La miniaturizzazione delle tecnologie, unita alla loro maggiore diffusione negli ambienti, porta ad interrogarsi sull’efficacia dell’integrazione di esse con corpo e attività ad esso connesse. Il contesto problematico della ricerca riguarda i dispositivi indossabili e il progetto di soluzioni destinate a risolvere inediti bisogni o potenziare i sensi umani. La letteratura scientifica e i casi studio circoscrivono il piede come efficace piattaforma per la sperimentazione di interfacce aptiche di comunicazione uomo/macchina, atte a connettere il corpo con informazioni referenziate all’ambiente. Il piede, elemento motorio duplice e simmetrico, ha un’elevata qualità percettiva ed è morfologicamente adeguato all’applicazione di tecnologie emergenti. La posizione di soglia, tra spazio e corpo, consente la raccolta di stimoli da entrambe le aree. La bibliografia evidenzia quanto la pressione, rispetto alla vibrazione, sia preferibile nella comunicazione aptica in quanto componente naturale dei linguaggi relazionali del corpo. Dall’analisi multidisciplinare emerge infine l’opportunità di sviluppo del ritmo come componente strutturale dei messaggi. I legami relazionali tra ritmo, corpo e comportamenti umani sono evidenti in molteplici meccanismi: trascinamento ritmico, mimesi ritmica, sincronia. La messa in relazione di piede, pressione e ritmo diventa affordance dello spazio, capace di suggerire, enfatizzare o attivare determinati comportamenti. L’unione di questi elementi è qui definita ritmica podotattile ed esplicitata nella tesi della descrizione delle sue caratteristiche, dalla circoscrizione di campi e azioni applicative e dalla raccolta dati sui test effettuati con i prototipi costruiti. Le analisi quantitative e qualitative dei dati di lettura del movimento e delle emozioni dimostrano quanto l’utilizzo di un linguaggio ritmico aptico nel piede esprima elevate potenzialità di integrazione con il corpo nel rispetto del comfort e dell’equilibrio attentivo nei flussi di azione preesistenti. I risultati aprono riflessioni su nuove applicazioni progettuali nel campo museale, lavorativo e urbano.
Resumo:
La conservazione preventiva degli edifici storici e dei beni custoditi al loro interno rappresenta una sfida ad oggi condivisa a livello internazionale. Tale conservazione dipende da numerose variabili, tra le quali il microclima indoor gioca un ruolo decisivo. Il fine di questa tesi è verificare come lo studio del microclima indoor, supportato dalla simulazione virtuale e dalla conoscenza storica delle evoluzioni dell’edificio stesso (legate a modifiche impiantistiche; architettoniche; d’uso; ecc., nel corso degli anni), costituiscano una base conoscitiva fondamentale, da cui architetti e restauratori possono partire per definire strategie specifiche, volte alla conservazione preventiva del Patrimonio. Per fare questo, l’autore presenta le indagini svolte per tre casi-studio: la Sala 33 della Reggia di Venaria Reale, in provincia di Torino, Italia; la Biblioteca Generale Storica dell’Università di Salamanca, in Spagna; il Portico della Gloria, nartece della Cattedrale di Santiago de Compostela, in Spagna. La metodologia definita e adottata per l’analisi e l’interpretazione dei dati di ciascun caso-studio ha previsto la comprensione e la messa in relazione tra: scelte costruttive; vicende evolutive delle singole architetture; fattori che ne determinano il microclima, letti (o ipotizzati) nelle relative modifiche diacroniche; degrado delle architetture e dei beni che sono custoditi in esse. Infine, uno degli esiti più innovativi della ricerca è stata la definizione di due indici di rischio: sono stati infatti definiti due nuovi indici (Heritage Microclimate Risk -HMR- e Predicted Risk of Damage -PRD-) legati al microclima degli edifici che ospitano beni e manufatti che costituiscono il patrimonio storico artistico e culturale. Tali indici sono stati definiti tenendo conto di tutte le variabili da cui il microclima dipende e dei fattori che ne determinano l’evolversi nel tempo e nello spazio.
Resumo:
Con questo elaborato si è voluto continuare lo sviluppo di tecnologie finalizzate al deorbiting di satelliti CubeSat 3U, già iniziato durante il progetto di tirocinio. La ricerca è stata svolta nell’ambito di sistemi di rientro attivi, in particolare a propulsione. Inizialmente sono state determinate le orbite in cui un CubeSat 3U non rispetta le linee guida imposte dalla IADC. Quindi, optando per un deorbiting parziale e una manovra alla Hohmann, sono stati calcolati i delta-v necessari per trasferire una sonda dalle orbite operative più utilizzate (600-1000 km) a quella finale (quota di 450 km). Successivamente sono stati presi in considerazione tre diversi tipi di sistemi di propulsione: a gas freddo, a gas caldo e a monopropellente liquido. I tre diversi sistemi sono stati analizzati singolarmente, verificando che rispettassero i limiti in primis volumetrici, di massa e di nocività. Il sistema a monopropellente liquido a perossido di idrogeno si è rivelato il migliore. Quindi è stato eseguito il dimensionamento dei tre componenti principali: l’ugello, la camera catalitica e il serbatoio. Per concludere è stato svolto anche un dimensionamento strutturale statico di prima approssimazione del serbatoio.
Resumo:
I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.
Resumo:
Il tumore non è altro che una massa abnorme di tessuto che cresce in eccesso ed in modo scoordinato rispetto ai tessuti normali, e che persiste in questo stato dopo la cessazione degli stimoli che hanno indotto il processo. Questa patologia può presentarsi all’interno del corpo umano in svariate posizioni e forme; la più diffusa forma di tumore è quello epatico, particolarmente discusso in questo studio. Dato il continuo sviluppo di questa malattia, la ricerca ha richiesto un altrettanto miglioramento della tecnologia per eliminarla. Gli studi hanno portato a sviluppare quello che viene definito “trattamento termico dei tumori”, che consiste nell’applicazione di elevate o basse temperature nella posizione desirata per creare necrosi e quindi l’eliminazione della neoplasia. L’obiettivo di questo lavoro è presentare i diversi trattamenti termici utilizzati nella pratica clinica, i modelli matematici utilizzati dalla tecnologia attuale per predire la distribuzione di temperatura nel tessuto e quindi l’efficacia di una determinata tecnologia; infine verranno presentate le ricerche che si pensa potrebbero migliorare l’efficienza della terapia. Per ogni tecnica sono state presentate le dinamiche di utilizzo, i macchinari, i limiti e i vantaggi che la caratterizzano. Ci si è soffermati anche sulla presentazione dell’equazioni matematiche che regolano gli scambi di calore, nonché sui danni provocati ai tessuti da fattori ipertermici o ipotermici, con un particolare esempio sui fattori ipertermici generati da campi elettromagnetici vicini e lontani. Si è cercato, quindi, di fare un quadro generale di questo trattamento toccando i diversi aspetti che lo distinguono dalle altre terapie.