430 resultados para doppiaggio, riferimenti culturali, globalizzazione, telefilm, americanizzazione
Resumo:
Il concetto di contaminazione fra architettura ed arti plastiche e figurative è molto antico. La dicotomia arte-architettura, sancita in via definitiva con il moderno museo di spoliazione napoleonica, non può che essere considerata una variazione neo-tecnicista sulla quale, non sempre giustamente, sono andati assestandosi gli insegnamenti delle scuole politecniche. Non così è sempre stato. Come il tempio greco può essere considerato un’opera plastica nel suo complesso, esempio tra i primi di fusione tra arte e architettura, moltissimi sono gli esempi che hanno guidato la direzione della ricerca che si è intesa perseguire. Molti sono gli esempi del passato che ci presentano figure di architetto-artista: un esempio fra tutti Michelangelo Buonarroti; come per altro non è nuovo, per l’artista puro, cimentarsi nella progettazione dello spazio architettonico o urbano, o per l'architetto essere coinvolto dalle indagini della ricerca artistica a lui contemporanea dalla quale trarre suggestioni culturali. Le rappresentazioni dei linguaggi visivi sono il frutto di contaminazioni che avvengono su diversi livelli e in più direzioni. Spesso le ricerche artistiche più significative hanno anticipato o influenzato il mondo del design, dell’architettura, della comunicazione. L’intenzione della ricerca è stata quindi approfondire, attraverso un viaggio nel Novecento, con particolare attenzione al Secondo Dopoguerra, i fenomeni culturali che hanno prodotto i più significativi sviluppi stilistici nell’ambito della ricerca e del rinnovo del linguaggio architettonico. Il compito, parafrasando Leonardo Benevolo, non è stato quello di elencare le singole battute della discussione ma di riconoscere gli interventi fruttuosi a lunga scadenza. Mutuando gli insegnamenti della scuola del Bauhaus, arte e architettura sono state affiancate perché considerate espressioni strettamente relazionate di coevi fenomeni culturali. L’obiettivo ha puntato all’individuazione dei meccanismi delle interazioni tra discipline, cercando di delineare il profilo della complessità dell’espressione del contemporaneo in architettura.
Resumo:
Che cos’è il riferimento? La risposta che difendo è che il riferimento è un atto che coinvolge un parlante, un’espressione linguistica e uno specifico oggetto, in una data occasione d’uso. Nel primo capitolo, inquadro storicamente il dibattito sul riferimento opponendo il modello soddisfazionale à la Russell a quello referenziale à la Donnellan. Introduco la teoria russelliana su nomi propri e descrizioni definite e difendo la tesi che gli usi referenziali siano caratterizzati da una direzione di adattamento inversa rispetto al modello soddisfazionale. Nel secondo capitolo, sostengo che il riferimento è un’azione che può essere felice o infelice, a seconda che il parlante ne rispetti i vincoli o meno. Analizzo due condizioni necessarie del riferimento: che vi sia un legame causale tra parlante, espressione e referente, e che le parole siano usate convenzionalmente. Normalmente, si parla di fallimento referenziale solo quando il presunto referente non esiste, mentre io propongo di usare l’espressione per i riferimenti infelici. Secondo e terzo capitolo equiparano più tipi di espressioni in merito al riferimento. Insisto sulla dipendenza contestuale di nomi propri e descrizioni definite (sia usate referenzialmente che attributivamente). Due degli argomenti usati sono basati sui nomi omofoni e omografi e sulle descrizioni definite incomplete. Infine sintetizzo i punti precedenti in una proposta originale. L’atto referenziale, di cui ho difeso la possibilità che fallisca, è dipendente anche dall’essere teso verso la comunicazione. Per illustrare il punto confronto il processo di istituzione di una convenzione con l’uso di una convenzione già istituita. Il progetto è di dare un resoconto del riferimento bilanciato tra l’uso del linguaggio incentrato sul soggetto e i suoi legami con il mondo, da una parte, e le espressioni linguistiche, strumenti per ottenere risultati all’interno di una data comunità, dall’altra parte. L’atto referenziale, sostengo, ha diverse gradazioni di efficacia dipendenti da tutti questi elementi.
Resumo:
Development aid involves a complex network of numerous and extremely heterogeneous actors. Nevertheless, all actors seem to speak the same ‘development jargon’ and to display a congruence that extends from the donor over the professional consultant to the village chief. And although the ideas about what counts as ‘good’ and ‘bad’ aid have constantly changed over time —with new paradigms and policies sprouting every few years— the apparent congruence between actors more or less remains unchanged. How can this be explained? Is it a strategy of all actors to get into the pocket of the donor, or are the social dynamics in development aid more complex? When a new development paradigm appears, where does it come from and how does it gain support? Is this support really homogeneous? To answer the questions, a multi-sited ethnography was conducted in the sector of water-related development aid, with a focus on 3 paradigms that are currently hegemonic in this sector: Integrated Water Resources Management, Capacity Building, and Adaptation to Climate Change. The sites of inquiry were: the headquarters of a multilateral organization, the headquarters of a development NGO, and the Inner Niger Delta in Mali. The research shows that paradigm shifts do not happen overnight but that new paradigms have long lines of descent. Moreover, they require a lot of work from actors in order to become hegemonic; the actors need to create a tight network of support. Each actor, however, interprets the paradigms in a slightly different way, depending on the position in the network. They implant their own interests in their interpretation of the paradigm (the actors ‘translate’ their interests), regardless of whether they constitute the donor, a mediator, or the aid recipient. These translations are necessary to cement and reproduce the network.
Resumo:
Questo lavoro si presenta come un’indagine pluridisciplinare fra metrica,linguistica,letteratura e didattica, in cui la rima n’è l’oggetto e il filo conduttore. Attraverso questa ricerca si tenta di mostrare la capacità della rima di costituire un ponte fra espressione e contenuto, di allargare così il bagaglio non solo linguistico del fruitore, ma anche quello conoscitivo. Partendo dall’ambito linguistico e metrico, si analizza in prima istanza, l’apporto pratico che la rima ha avuto nell’evoluzione delle lingue volgari indoeuropee, per poi diventare il mezzo più semplice e istintivo per strutturare il verso poetico. Si passa così da un contesto folklorico ad uno colto, percorrendo tutti i secoli della nostra storia letteraria. Nella seconda parte la materia metrica cede il posto a quella didattico – pedagogica, e il passaggio è facilitato dalla poesia novecentesca che rimette in discussione il ruolo della rima, e la vede come il mezzo perfetto d’associazione fra parole, non solo di suono, ma anche di senso. A questo risponde la teoria del “binomio fantastico” di cui si avvale Gianni Rodari per creare le sue filastrocche, ed educare divertendo i suoi alunni. La rima con la sua omofonia finale, col suo accostamento casuale, concentra l’attenzione del bambino su di se e lo fa entrare a contatto col mondo delle parole, con la potenza della lingua.
Resumo:
L’elaborato ha ad oggetto l’analisi delle possibili forme di collaborazione tra vettori nei diversi settori del trasporto, con particolare attenzione all’ambito aeronautico e marittimo. Negli ultimi decenni l’incremento del livello di concorrenza tra i competitors su scala planetaria, a seguito della progressiva liberalizzazione e globalizzazione dei trasporti, ha indotto i vettori ad adottare nuove strategie commerciali dirette alla condivisione del rischio, alla riduzione dei costi di esercizio, all’espansione delle proprie reti e alla flessibilizzazione dei processi interni di adeguamento alle continue espansioni e contrazioni del mercato. Hanno, così, fatto la loro comparsa modelli contrattuali nuovi che differiscono per struttura, livello di integrazione delle parti coinvolte e grado di complessità dell’accordo. Nell’elaborato, pertanto, sono state attentamente esaminate le molteplici figure giuridiche generate dalla prassi commerciale, come gli accordi di codesharing, interlining, wet lease, dry lease, franchising, le grandi alleanze strategiche presenti sia in ambito aeronautico, sia in quello marittimo, le Conferences e i Consorzi. La ricerca, in particolare, è focalizzata, alla luce della prassi contrattuale e della normativa nazionale, comunitaria ed internazionale vigente, sui problemi di qualificazione giuridica di tali accordi e, conseguentemente, sulla disciplina di volta in volta ad essi applicabile, sul loro oggetto, regolamento contrattuale e contenuto. Si è proceduto poi ad uno studio comparativo-contrastivo delle differenze tra le varie forme di partnership e all’approfondimento delle questioni concernenti la tutela degli utenti dei servizi di trasporto, siano essi passeggeri o mittenti. Sono affrontati, infatti, con accurata indagine i profili di responsabilità dei vettori coinvolti, sulla base del quadro normativo di riferimento. Nel corso della ricerca si è data anche particolare attenzione all’analisi della compatibilità degli accordi tra vettori con la disciplina comunitaria della concorrenza, registrando una tendenza della Comunità a piegare l’interpretazione delle norme in materia alle superiori esigenze dell’economia, in considerazione delle peculiarità del mercato del trasporto.
Resumo:
In base ad una recensione esaustiva dei riferimenti alla musica e al sonoro nella produzione filosofica di Gilles Deleuze e Félix Guattari, la presente ricerca s’incentra sulla posizione che il pensiero musicale di John Cage occupa in alcuni testi deleuziani. Il primo capitolo tratta del periodo creativo di Cage fra il 1939 e il 1952, focalizzandosi su due aspetti principali: la struttura micro-macrocosmica che contraddistingue i suoi primi lavori, e i quattro elementi che in questo momento sintetizzano per Cage la composizione musicale. Questi ultimi sono considerati in riferimento alla teoria della doppia articolazione che Deleuze e Guattari riprendono da Hjelmslev; entrambi gli aspetti rimandano al sistema degli strati e della stratificazione esposta su Mille piani. Il secondo capitolo analizza la musica dei decenni centrali della produzione cagiana alla luce del luogo in Mille piani dove Cage è messo in rapporto al concetto di “piano fisso sonoro”. Un’attenzione particolare è posta al modo in cui Cage concepisce il rapporto fra durata e materiali sonori, e al grado variabile in cui sono presenti il caso e l’indeterminazione. Le composizioni del periodo in questione sono inoltre viste in riferimento al concetto deleuzo-guattariano di cartografia, e nelle loro implicazioni per il tempo musicale. L’ultimo quindicennio della produzione di Cage è considerata attraverso il concetto di rizoma inteso come teoria delle molteplicità. In primo luogo è esaminata la partitura di Sylvano Bussotti che figura all’inizio di Mille piani; in seguito, i lavori testuali e musicali di Cage sono considerati secondo le procedure compositive cagiane del mesostico, delle parentesi di tempo che concorrono a formare una struttura variabile, e dell’armonia anarchica dell’ultimo Cage.
Resumo:
Il processo di riforma a carattere europeo che ha condotto alla nascita di uno Spazio Europeo dell’Istruzione Superiore ha conosciuto diverse tappe fondamentali, fra cui, per esempio, la ripartizione in cicli e l’adozione dei crediti ECTS. Una di queste tappe, ossia il passaggio da una pianificazione della didattica basata sui contenuti ad una basata sui risultati dell’apprendimento, ricopre un ruolo di primo piano nel presente progetto di dottorato. Lo studio qui descritto ha esaminato, da un punto di vista sintattico e semantico, un campione di obiettivi e risultati dell’apprendimento di insegnamenti di alcuni corsi di laurea di primo e secondo ciclo, delle scienze umanistiche, in Austria, Germania, Italia e Regno Unito. L’obiettivo del progetto è proporre uno schema per una classificazione a faccette di obiettivi dell’apprendimento denominato FLOC. Tale schema è adottato per classificare gli obiettivi dell’apprendimento di quattro contesti linguistico-culturali (nei paesi summenzionati), dando vita a FLOC-AT, FLOC-DE, FLOC-IT e FLOC-EN. Queste quattro classificazioni forniscono inoltre il contesto per un’analisi contrastiva multilingue fra unità di obiettivi di apprendimento.
Resumo:
Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perché è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.
Resumo:
In this thesis, we extend some ideas of statistical physics to describe the properties of human mobility. By using a database containing GPS measures of individual paths (position, velocity and covered space at a spatial scale of 2 Km or a time scale of 30 sec), which includes the 2% of the private vehicles in Italy, we succeed in determining some statistical empirical laws pointing out "universal" characteristics of human mobility. Developing simple stochastic models suggesting possible explanations of the empirical observations, we are able to indicate what are the key quantities and cognitive features that are ruling individuals' mobility. To understand the features of individual dynamics, we have studied different aspects of urban mobility from a physical point of view. We discuss the implications of the Benford's law emerging from the distribution of times elapsed between successive trips. We observe how the daily travel-time budget is related with many aspects of the urban environment, and describe how the daily mobility budget is then spent. We link the scaling properties of individual mobility networks to the inhomogeneous average durations of the activities that are performed, and those of the networks describing people's common use of space with the fractional dimension of the urban territory. We study entropy measures of individual mobility patterns, showing that they carry almost the same information of the related mobility networks, but are also influenced by a hierarchy among the activities performed. We discover that Wardrop's principles are violated as drivers have only incomplete information on traffic state and therefore rely on knowledge on the average travel-times. We propose an assimilation model to solve the intrinsic scattering of GPS data on the street network, permitting the real-time reconstruction of traffic state at a urban scale.
Resumo:
Atmospheric aerosol particles directly impact air quality and participate in controlling the climate system. Organic Aerosol (OA) in general accounts for a large fraction (10–90%) of the global submicron (PM1) particulate mass. Chemometric methods for source identification are used in many disciplines, but methods relying on the analysis of NMR datasets are rarely used in atmospheric sciences. This thesis provides an original application of NMR-based chemometric methods to atmospheric OA source apportionment. The method was tested on chemical composition databases obtained from samples collected at different environments in Europe, hence exploring the impact of a great diversity of natural and anthropogenic sources. We focused on sources of water-soluble OA (WSOA), for which NMR analysis provides substantial advantages compared to alternative methods. Different factor analysis techniques are applied independently to NMR datasets from nine field campaigns of the project EUCAARI and allowed the identification of recurrent source contributions to WSOA in European background troposphere: 1) Marine SOA; 2) Aliphatic amines from ground sources (agricultural activities, etc.); 3) Biomass burning POA; 4) Biogenic SOA from terpene oxidation; 5) “Aged” SOAs, including humic-like substances (HULIS); 6) Other factors possibly including contributions from Primary Biological Aerosol Particles, and products of cooking activities. Biomass burning POA accounted for more than 50% of WSOC in winter months. Aged SOA associated with HULIS was predominant (> 75%) during the spring-summer, suggesting that secondary sources and transboundary transport become more important in spring and summer. Complex aerosol measurements carried out, involving several foreign research groups, provided the opportunity to compare source apportionment results obtained by NMR analysis with those provided by more widespread Aerodyne aerosol mass spectrometers (AMS) techniques that now provided categorization schemes of OA which are becoming a standard for atmospheric chemists. Results emerging from this thesis partly confirm AMS classification and partly challenge it.
Resumo:
Life Cycle Assessment (LCA) is a chain-oriented tool to evaluate the environment performance of products focussing on the entire life cycle of these products: from the extraction of resources, via manufacturing and use, to the final processing of the disposed products. Through all these stages consumption of resources and pollutant releases to air, water, soil are identified and quantified in Life Cycle Inventory (LCI) analysis. Subsequently to the LCI phase follows the Life Cycle Impact Assessment (LCIA) phase; that has the purpose to convert resource consumptions and pollutant releases in environmental impacts. The LCIA aims to model and to evaluate environmental issues, called impact categories. Several reports emphasises the importance of LCA in the field of ENMs. The ENMs offer enormous potential for the development of new products and application. There are however unanswered questions about the impacts of ENMs on human health and the environment. In the last decade the increasing production, use and consumption of nanoproducts, with a consequent release into the environment, has accentuated the obligation to ensure that potential risks are adequately understood to protect both human health and environment. Due to its holistic and comprehensive assessment, LCA is an essential tool evaluate, understand and manage the environmental and health effects of nanotechnology. The evaluation of health and environmental impacts of nanotechnologies, throughout the whole of their life-cycle by using LCA methodology. This is due to the lack of knowledge in relation to risk assessment. In fact, to date, the knowledge on human and environmental exposure to nanomaterials, such ENPs is limited. This bottleneck is reflected into LCA where characterisation models and consequently characterisation factors for ENPs are missed. The PhD project aims to assess limitations and challenges of the freshwater aquatic ecotoxicity potential evaluation in LCIA phase for ENPs and in particular nanoparticles as n-TiO2.
Resumo:
La presente ricerca muove i suoi primi passi dall’ipotesi generale che il paradigma relazionale possa offrire al mondo dei servizi sociali una configurazione diversa, talora meno utopistica, del community work. Sebbene, infatti, in questi anni il sistema di offerta dei servizi si sia arricchito di principi come la co-progettazione e la co-responsabilità delle azioni, il lavoro di comunità resta ancora molto distante dal lavoro generalmente svolto nei servizi sociali territoriali, incapaci per ragioni strutturali e culturali di accogliere dentro di sé tale funzione. L’idea dalla quale trae origine la presente tesi di dottorato, è pertanto quella di arricchire la definizione di servizi sociali relazionali. Partendo dalle dimensioni che in letteratura sociologica e nei principali modelli teorici di social work definiscono un servizio alla persona quale servizio relazionale, nella prima parte teorica viene ipotizzata una trasformazione parziale del welfare regionale emiliano, poiché ai mutamenti culturali di questi anni non ha fatto seguito un cambiamento reale dei modelli operativi maggiormente basati sullo sviluppo delle competenze. Nella seconda parte della tesi, la ricerca empirica si focalizza sui progetti “family friendly” realizzati nel Comune di Parma, collocati in una logica di welfare societario e basati sull’apporto di soggetti di Terzo Settore, responsabili di ogni fase di realizzazione delle attività. La ricerca si avvale prevalentemente di tecniche qualitative e in alcuni tratti assume le caratteristiche della ricerca-azione. Nelle conclusioni, il contesto territoriale studiato rivela grande ricchezza dei legami strutturali, ma anche necessità di un rafforzamento dei legami interni. La forza dei servizi prodotti si situa, inoltre, nella sovrafunzionalità del legame tra volontari e famiglie, e di questo elemento dovrebbe arricchirsi anche il social work che scelga di adottare una prospettiva metodologica di lavoro relazionale.
Resumo:
La ricerca pone al suo centro lo studio dell'opera architettonica di Emil Steffann (1899-1968) la cui produzione realizzata consta, nel breve arco temporale che va dal 1950 al 1968, del ragguardevole numero di trentanove chiese, rappresentando un caso emblematico di progettazione e costruzione di edifici per il culto cristiano in grado di raffigurarne concretamente i principi fondativi liturgici, estetici e morfologici. L'architettura di Steffann, profondamente ispirata dallo spirito religioso, legata a figure primigenie che plasmano lo stare-insieme della comunità nella qualità corporea della materia, dove la presenza liturgica e monumentale si esprime nel silenzio e nella disponibilità di uno spazio circoscritto dai muri e direzionato dalla luce, concorre a definire nell'oggettivo amore per il vero la percezione estetico-teologica e la poetica formativa che connaturano, a nostro parere, progetto e segno della chiesa. Il testo concretizza il primo studio monografico completo di questo corpus architettonico e si basa sulla ricognizione diretta delle opere di Steffann; ne è derivata una narrazione non conseguente a un ordine cronologico o di presupposta importanza degli edifici, bensì che ricerca ed evidenzia corrispondenze tra nodi di una rete ideativa la quale, con diversi gradi di finitezza, in punti non sempre omogenei del tempo e dello spazio, denota un'esperienza autentica del comporre e del costruire. Il racconto individua gli oggetti architettonici, ne discute la consistenza aprendosi a riferimenti altri (in particolare il pensiero ecclesiologico-liturgico di Romano Guardini e quello estetico-teologico di Hans Urs von Balthasar) in grado di illuminarne la genesi e la manifestazione, li lega infine in sequenze analogiche. Una serie di tavole fotografiche originali, parte ineludibile e integrante della ricerca, testimonia dello stato attuale dei luoghi, connotando ulteriormente l'aspetto info-rappresentativo della loro composizione architettonica. In chiusura, la sintesi architetturale vuole essere uno strumento di verifica e progetto, quindi di trasposizione futura, correlato all'elaborazione documentaria.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).