51 resultados para modellazione, caviglia, cinetostatica, legamenti


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’osteoartrite (OA) rappresenta un gruppo di patologie a carico delle articolazioni che si stima colpisca più del 20% dei cani con età superiore a un anno. Si tratta di una condizione dove entrano in gioco fattori biomeccanici e biochimici, che si esprime clinicamente con zoppia e dolore. Le ricerche effettuate negli ultimi decenni hanno dimostrato il coinvolgimento dell’innervazione nocicettiva e simpatica nell’insorgenza e nel mantenimento del dolore e dell’infiammazione che caratterizzano l’OA. In questa, infatti, svolgono un ruolo cruciale i neuropeptidi, quali la sostanza P (SP) ed il peptide correlato al gene della calcitonina (CGRP), ed i neuromediatori simpatici liberati alla periferia rispettivamente dalle fibre nocicettive e dalle fibre simpatiche postgangliari. Col presente lavoro ci si è posti l’obiettivo di definire il tipo ed il numero di fibre nervose che innervano l’articolazione della spalla e del ginocchio di cane in soggetti esenti da patologia articolare ed affetti da osteoartrite. Campioni di legamenti e capsula articolare della spalla e della parte craniolaterale della capsula articolare del ginocchio sono stati sottoposto a reazione di doppia immunofluorescenza indiretta volta alla identificazione del numero complessivo di fibre nervose presenti e della percentuale di fibre SP, CGRP e simpatiche positive. I risultati testimoniano come in corso di OA nel cane venga ad alterarsi l’equilibrio tra innervazione sensitiva e simpatica. Infatti, lo studio quantitativo ha evidenziato che nei soggetti affetti da OA si assiste ad un incremento della percentuale di fibre SP positive e ad un decremento di quelle simpatiche. Si ritiene che l’integrità di questi due tipi d’innervazione sia necessaria per l’omeostasi tissutale e che un aumento delle fibre nocicettive e una riduzione di quelle simpatiche abbia un effetto proinfiammatorio e iperalgesico. È stata inoltre riscontrata una differente densità di fibre nervose a seconda del tipo di patologia considerata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato ha come oggetto la ricostruzione tridimensionale della città di Bologna nella sua fase rinascimentale. Tale lavoro vuole fornire un modello 3D delle architetture e degli spazi urbani utilizzabile sia per scopi di ricerca nell’ambito della storia delle città sia per un uso didattico-divulgativo nel settore del turismo culturale. La base del lavoro è una fonte iconografica di grande importanza: l’affresco raffigurante Bologna risalente al 1575 e situato in Vaticano; questa è una veduta a volo d’uccello di grandi dimensioni dell’intero tessuto urbano bolognese all’interno della terza cerchia di mura. In esso sono rappresentate in maniera particolareggiata le architetture civili e ecclesiastiche, gli spazi ortivi e cortilivi interni agli isolati e alcune importanti strutture urbane presenti in città alla fine del Cinquecento, come l’area portuale e i canali interni alla città, oggi non più visibili. La ricostruzione tridimensionale è stata realizzata tramite Blender, software per la modellazione 3D opensource, attraverso le fasi di modellazione, texturing e creazione materiali (mediante campionamento delle principali cromie presenti nell’affresco), illuminazione e animazione. Una parte della modellazione è stata poi testata all’interno di un GIS per verificare l’utilizzo delle geometrie 3D come elementi collegabili ad altre fonti storiche relative allo sviluppo urbano e quindi sfruttabili per la ricerca storica. Grande attenzione infine è stata data all’uso dei modelli virtuali a scopo didattico-divulgativo e per il turismo culturale. La modellazione è stata utilizzata all’interno di un motore grafico 3D per costruire un ambiente virtuale interattivo nel quale un utente anche non esperto possa muoversi per esplorare gli spazi urbani della Bologna del Cinquecento. In ultimo è stato impostato lo sviluppo di un’applicazione per sistemi mobile (Iphone e Ipad) al fine di fornire uno strumento per la conoscenza della città storica in mobilità, attraverso la comparazione dello stato attuale con quello ricostruito virtualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this thesis was to improve the commercial CFD software Ansys Fluent to obtain a tool able to perform accurate simulations of flow boiling in the slug flow regime. The achievement of a reliable numerical framework allows a better understanding of the bubble and flow dynamics induced by the evaporation and makes possible the prediction of the wall heat transfer trends. In order to save computational time, the flow is modeled with an axisymmetrical formulation. Vapor and liquid phases are treated as incompressible and in laminar flow. By means of a single fluid approach, the flow equations are written as for a single phase flow, but discontinuities at the interface and interfacial effects need to be accounted for and discretized properly. Ansys Fluent provides a Volume Of Fluid technique to advect the interface and to map the discontinuous fluid properties throughout the flow domain. The interfacial effects are dominant in the boiling slug flow and the accuracy of their estimation is fundamental for the reliability of the solver. Self-implemented functions, developed ad-hoc, are introduced within the numerical code to compute the surface tension force and the rates of mass and energy exchange at the interface related to the evaporation. Several validation benchmarks assess the better performances of the improved software. Various adiabatic configurations are simulated in order to test the capability of the numerical framework in modeling actual flows and the comparison with experimental results is very positive. The simulation of a single evaporating bubble underlines the dominant effect on the global heat transfer rate of the local transient heat convection in the liquid after the bubble transit. The simulation of multiple evaporating bubbles flowing in sequence shows that their mutual influence can strongly enhance the heat transfer coefficient, up to twice the single phase flow value.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E’ mostrata l’analisi e la modellazione di dati termocronologici di bassa temperatura da due regioni Alpine: il Sempione ed il Brennero. Le faglie distensive presenti bordano settori crostali profondi appartenenti al dominio penninico: il duomo metamorfico Lepontino al Sempione e la finestra dei Tauri al Brennero. I dati utilizzati sono FT e (U-Th)/He su apatite. Per il Sempione i dati provengono dalla bibliografia; per il Brennero si è provveduto ad un nuovo campionamento, sia in superficie che in sotterraneo. Gli attuali lavori per la galleria di base del Brennero (BBT), hanno consentito, per la prima volta, di raccogliere dati di FT e (U-Th)/He in apatite in sottosuolo per la finestra dei Tauri occidentale. Le analisi sono state effettuate tramite un codice a elementi finiti, Pecube, risolvente l’equazione di diffusione del calore per una topografia evolvente nel tempo. Il codice è stato modificato per tener conto dei dati sotterranei. L’inversione dei dati è stata effettuata usando il Neighbourhood Algorithm (NA), per ottenere il più plausibile scenario di evoluzione morfotettonico. I risultati ottenuti per il Sempione mostrano: ipotetica evoluzione dello stile tettonico della faglia del Sempione da rolling hinge a low angle detachment a 6.5 Ma e la cessazione dell’attività a 3 Ma; costruzione del rilievo fino a 5.5 Ma, smantellamento da 5.5 Ma ad oggi, in coincidenza dei cambiamenti climatici Messiniani e relativi all’inizio delle maggiori glaciazioni; incremento dell’esumazione da 0–0.6 mm/anno a 0.6–1.2 mm/anno a 2.4 Ma nell’emisfero settentrionale. I risultati al Brennero mostrano: maggiore attività tettonica della faglia del Brennero (1.3 mm/anno), maggiore attività esumativa (1–2 mm/anno) prima dei 10 Ma; crollo dell’attività della faglia del Brennero fra 10 Ma e oggi (0.1 mm/anno) e dell’attività esumativa nello stesso periodo (0.1–0.3 mm/anno); nessun aumento del tasso esumativo o variazioni topografiche negli ultimi 5 Ma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Extrusion is a process used to form long products of constant cross section, from simple billets, with a high variety of shapes. Aluminum alloys are the materials most processed in the extrusion industry due to their deformability and the wide field of applications that range from buildings to aerospace and from design to automotive industries. The diverse applications imply different requirements that can be fulfilled by the wide range of alloys and treatments, that is from critical structural application to high quality surface and aesthetical aspect. Whether one or the other is the critical aspect, they both depend directly from microstructure. The extrusion process is moreover marked by high deformations and complex strain gradients making difficult the control of microstructure evolution that is at present not yet fully achieved. Nevertheless the evolution of Finite Element modeling has reached a maturity and can therefore start to be used as a tool for investigation and prediction of microstructure evolution. This thesis will analyze and model the evolution of microstructure throughout the entire extrusion process for 6XXX series aluminum alloys. Core phase of the work was the development of specific tests to investigate the microstructure evolution and validate the model implemented in a commercial FE code. Along with it two essential activities were carried out for a correct calibration of the model beyond the simple research of contour parameters, thus leading to the understanding and control of both code and process. In this direction activities were also conducted on building critical knowhow on the interpretation of microstructure and extrusion phenomena. It is believed, in fact, that the sole analysis of the microstructure evolution regardless of its relevance in the technological aspects of the process would be of little use for the industry as well as ineffective for the interpretation of the results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio si concentra sulle diverse applicazioni del telerilevamento termico in ambito urbano. Vengono inizialmente descritti la radiazione infrarossa e le sue interazioni con l’atmosfera terrestre, le leggi principali che regolano lo scambio di calore per irraggiamento, le caratteristiche dei sensori e le diverse applicazioni di termografia. Successivamente sono trattati nel dettaglio gli aspetti caratteristici della termografia da piattaforma satellitare, finalizzata principalmente alla valutazione del fenomeno dell'Urban Heat Island; vengono descritti i sensori disponibili, le metodologie di correzione per gli effetti atmosferici, per la stima dell'emissività delle superfici e per il calcolo della temperatura superficiale dei pixels. Viene quindi illustrata la sperimentazione effettuata sull'area di Bologna mediante immagini multispettrali ASTER: i risultati mostrano come sull'area urbana sia riscontrabile la presenza dell'Isola di Calore Urbano, anche se la sua quantificazione risulta complessa. Si procede quindi alla descrizione di potenzialità e limiti della termografia aerea, dei suoi diversi utilizzi, delle modalità operative di rilievo e degli algoritmi utilizzati per il calcolo della temperatura superficiale delle coperture edilizie. Tramite l’analisi di alcune esperienze precedenti vengono trattati l’influenza dell’atmosfera, la modellazione dei suoi effetti sulla radianza rilevata, i diversi metodi per la stima dell’emissività. Viene quindi introdotto il progetto europeo Energycity, finalizzato alla creazione di un sistema GeoWeb di supporto spaziale alle decisioni per la riduzione di consumi energetici e produzione di gas serra su sette città dell'Europa Centrale. Vengono illustrate le modalità di rilievo e le attività di processing dei datasets digitali per la creazione di mappe di temperatura superficiale da implementare nel sistema SDSS. Viene infine descritta la sperimentazione effettuata sulle immagini termiche acquisite nel febbraio 2010 sulla città di Treviso, trasformate in un mosaico georiferito di temperatura radiometrica tramite correzioni geometriche e radiometriche; a seguito della correzione per l’emissività quest’ultimo verrà trasformato in un mosaico di temperatura superficiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This doctoral dissertation presents a new method to asses the influence of clearancein the kinematic pairs on the configuration of planar and spatial mechanisms. The subject has been widely investigated in both past and present scientific literature, and is approached in different ways: a static/kinetostatic way, which looks for the clearance take-up due to the external loads on the mechanism; a probabilistic way, which expresses clearance-due displacements using probability density functions; a dynamic way, which evaluates dynamic effects like the actual forces in the pairs caused by impacts, or the consequent vibrations. This dissertation presents a new method to approach the problem of clearance. The problem is studied from a purely kinematic perspective. With reference to a given mechanism configuration, the pose (position and orientation) error of the mechanism link of interest is expressed as a vector function of the degrees of freedom introduced in each pair by clearance: the presence of clearance in a kinematic pair, in facts, causes the actual pair to have more degrees of freedom than the theoretical clearance-free one. The clearance-due degrees of freedom are bounded by the pair geometry. A proper modelling of clearance-affected pairs allows expressing such bounding through analytical functions. It is then possible to study the problem as a maximization problem, where a continuous function (the pose error of the link of interest) subject to some constraints (the analytical functions bounding clearance- due degrees of freedom) has to be maximize. Revolute, prismatic, cylindrical, and spherical clearance-affected pairs have been analytically modelled; with reference to mechanisms involving such pairs, the solution to the maximization problem has been obtained in a closed form.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale della tesi è lo sviluppo di un modello empirico previsivo di breve periodo che sia in grado di offrire previsioni precise ed affidabili dei consumi di energia elettrica su base oraria del mercato italiano. Questo modello riassume le conoscenze acquisite e l'esperienza fatta durante la mia attuale attività lavorativa presso il Romagna Energia S.C.p.A., uno dei maggiori player italiani del mercato energetico. Durante l'ultimo ventennio vi sono stati drastici cambiamenti alla struttura del mercato elettrico in tutto il mondo. Nella maggior parte dei paesi industrializzati il settore dell'energia elettrica ha modificato la sua originale conformazione di monopolio in mercato competitivo liberalizzato, dove i consumatori hanno la libertà di scegliere il proprio fornitore. La modellazione e la previsione della serie storica dei consumi di energia elettrica hanno quindi assunto un ruolo molto importante nel mercato, sia per i policy makers che per gli operatori. Basandosi sulla letteratura già esistente, sfruttando le conoscenze acquisite 'sul campo' ed alcune intuizioni, si è analizzata e sviluppata una struttura modellistica di tipo triangolare, del tutto innovativa in questo ambito di ricerca, suggerita proprio dal meccanismo fisico attraverso il quale l'energia elettrica viene prodotta e consumata nell'arco delle 24 ore. Questo schema triangolare può essere visto come un particolare modello VARMA e possiede una duplice utilità, dal punto di vista interpretativo del fenomeno da una parte, e previsivo dall'altra. Vengono inoltre introdotti nuovi leading indicators legati a fattori meteorologici, con l'intento di migliorare le performance previsive dello stesso. Utilizzando quindi la serie storica dei consumi di energia elettrica italiana, dall'1 Marzo 2010 al 30 Marzo 2012, sono stati stimati i parametri del modello dello schema previsivo proposto e valutati i risultati previsivi per il periodo dall'1 Aprile 2012 al 30 Aprile 2012, confrontandoli con quelli forniti da fonti ufficiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo della tesi è verificare se i pazienti affetti da psoriasi puramente ungueale sviluppano psoriasi artropatica e se esistono parametri clinici che possano permettere di predire lo sviluppo del danno articolare. Viene inoltre valutato l'impatto che la psoriasi ungueale, associata alla psoriasi artropatica, determina sulla qualità di vita dei nostri pazienti. L'artrite psoriasica è spesso associata a psoriasi ungueale, che è più frequente nei pazienti con artrite psoriasica rispetto ai pazienti con psoriasi cutanea. Vi è una stretta relazione funzionale tra l'unghia e l'articolazione interfalangea distale, i tendini e i legamenti: lo sviluppo di entesite della falange distale è infatti associato ad una infiammazione dell'apparato ungueale. Riportiamo i dati preliminari emersi dal nostro studio pilota, che conferma come siano necessari e doverosi ulteriori studi su popolazioni più ampie per determinare la relazione che sussiste fra psoriasi ungueale e psoriasi artropatica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents the results of theoretical and experimental characterization of thermodynamic, mechanical and transport properties in polymer solvent systems. The polymer solvent pairs considered ranged to those in which the polymer is rubbery, to those in which the initially glassy polymeric matrix is plasticized by the action of the low molecular weight species. Advanced Equation of State models have been adopted for thermodynamic modeling,along with a rigorous procedure that enables to extend their applicability to the non equilibrium, glassy region. Mass sorption kinetics had been modeled with phenomenological models and with advanced kinetic models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pistoia rientra a buon diritto, nel quadro della Toscana medievale, in quella rete di centri urbani di antica origine e tradizione diocesana che riuscirono a costruire, nella dialettica fra città e territorio, un organismo politico autonomo, il comune cittadino. La ricerca prende in considerazione i resti materiali delle strutture conservate nel tessuto urbano attuale, in particolare l'edilizia civile, prediligendo la cosiddetta “edilizia minore”, ovvero gli edifici residenziali non monumentali che, proprio per questo motivo, sono generalmente poco conosciuti. Le strutture, censite ed inserite in una piattaforma GIS (Arpenteur), sono analizzate con metodo archeologico al fine di distinguere le diverse fasi costruttive, medievali e post-medievali, con cui sono giunte fino ad oggi. L'analisi stratigrafica, effettuata su rilievi realizzati mediante modellazione 3D (Photomodeler), ha permesso di costruire un primo “atlante” delle tipologie murarie medievali della città: i tipi murari assumono quindi la funzione di indicatori cronologici degli edifici analizzati. I dati stratigrafici, uniti al dato topologico dei complessi architettonici (localizzati prevalentemente nel centro storico, all'interno del circuito murario della metà del XII secolo), hanno fornito informazioni sia per quanto riguarda l'aspetto materiale degli edifici di abitazione (forma, dimensioni, materiali) sia per quanto riguarda temi di topografia storica (viabilità maggiore e minore, formazione dei borghi, orizzonte sociale degli abitanti, distribuzione della proprietà), nel periodo della “parabola” della Pistoia comunale (XII-XIII secolo). In conclusione, la ricerca vuole essere sia uno strumento di analisi per la storia delle trasformazioni delle città nel periodo comunale, sia uno strumento di conoscenza e tutela di un patrimonio storico-archeologico che, per la sua natura non-monumentale spesso sfugge all'attenzione di amministratori ed urbanisti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Waste management represents an important issue in our society and Waste-to-Energy incineration plants have been playing a significant role in the last decades, showing an increased importance in Europe. One of the main issues posed by waste combustion is the generation of air contaminants. Particular concern is present about acid gases, mainly hydrogen chloride and sulfur oxides, due to their potential impact on the environment and on human health. Therefore, in the present study the main available technological options for flue gas treatment were analyzed, focusing on dry treatment systems, which are increasingly applied in Municipal Solid Wastes (MSW) incinerators. An operational model was proposed to describe and optimize acid gas removal process. It was applied to an existing MSW incineration plant, where acid gases are neutralized in a two-stage dry treatment system. This process is based on the injection of powdered calcium hydroxide and sodium bicarbonate in reactors followed by fabric filters. HCl and SO2 conversions were expressed as a function of reactants flow rates, calculating model parameters from literature and plant data. The implementation in a software for process simulation allowed the identification of optimal operating conditions, taking into account the reactant feed rates, the amount of solid products and the recycle of the sorbent. Alternative configurations of the reference plant were also assessed. The applicability of the operational model was extended developing also a fundamental approach to the issue. A predictive model was developed, describing mass transfer and kinetic phenomena governing the acid gas neutralization with solid sorbents. The rate controlling steps were identified through the reproduction of literature data, allowing the description of acid gas removal in the case study analyzed. A laboratory device was also designed and started up to assess the required model parameters.