541 resultados para apprendimento integrale sapere libri di testo primitiva funzione integrale
Resumo:
Lo scopo di questa tesi è quello di verificare il livello di conoscenza riguardo alla trigonometria negli studenti del 4 anno della Scuola Secondaria di II grado e in quelli iscritti al primo anno del corso di studi in Matematica. Per analizzare al meglio le conoscenze che dovrebbero avere gli studenti, è stato osservato come affrontano questo argomento i libri di testo della scuola e quelli universitari. Sono stati osservati anche gli esercizi proposti dai libri, gli obiettivi di apprendimento e le indicazioni nazionali previste dal ministero.
Resumo:
L'elaborato si propone di analizzare il comportamento degli utenti nell'utilizzo di editor collaborativi per documenti di testo. La soluzione proposta è chiamata UICEM, uno strumento che include una versione modificata di Etherpad Lite per monitorare e memorizzare le azioni svolte dagli utenti, le quali poi vengono recuperate, analizzate e aggregate.
Resumo:
Si danno la definizione formale e alcune proprietà elementari della funzione zeta di Hasse-Weil. Si forniscono poi alcuni esempi di calcolo della stessa, in particolare si esaurisce il caso delle coniche affini.
Resumo:
Questo lavoro di tesi nasce all’interno del nucleo di ricerca in didattica della fisica dell’Università di Bologna, coordinato dalla professoressa Olivia Levrini e che coinvolge docenti di matematica e fisica dei Licei, assegnisti di ricerca e laureandi. Negli ultimi anni il lavoro del gruppo si è concentrato sullo studio di una possibile risposta all'evidente e pressante difficoltà di certi docenti nell'affrontare gli argomenti di meccanica quantistica che sono stati introdotti nelle indicazioni Nazionali per il Liceo Scientifico, dovuta a cause di vario genere, fra cui l'intrinseca complessità degli argomenti e l'inefficacia di molti libri di testo nel presentarli in modo adeguato. In questo contesto, la presente tesi si pone l’obiettivo di affrontare due problemi specifici di formalizzazione matematica in relazione a due temi previsti dalle Indicazioni Nazionali: il tema della radiazione di corpo nero, che ha portato Max Planck alla prima ipotesi di quantizzazione, e l’indeterminazione di Heisenberg, con il cambiamento di paradigma che ha costituito per l’interpretazione del mondo fisico. Attraverso un confronto diretto con le fonti, si cercherà quindi di proporre un percorso in cui il ruolo del protagonista sarà giocato dagli aspetti matematici delle teorie analizzate e dal modo in cui gli strumenti della matematica hanno contribuito alla loro formazione, mantenendo un costante legame con le componenti didattiche. Proprio in quest'ottica, ci si accorgerà della forte connessione fra i lavori di Planck e Heisenberg e due aspetti fondamentali della didattica della matematica: l'interdisciplinarietà con la fisica e il concetto di modellizzazione. Il lavoro finale sarà quindi quello di andare ad analizzare, attraverso un confronto con le Indicazioni Nazionali per il Liceo Scientifico e con alcune esigenze emerse dagli insegnanti, le parti e i modi in cui la tesi risponde a queste richieste.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.
Resumo:
Nel 1837 il matematico A.F. Möbius definì la funzione aritmetica mu(n) che vale 0 se n è divisibile per il quadrato di un numero primo, (-1)^k se n è il prodotto di k primi distinti e \mu(1)=1. Essa ricopre un ruolo di fondamentale importanza per quanto riguarda la distribuzione dei numeri primi, nonché per la sua duttilità nella risoluzione di diversi problemi di conteggio grazie alla formula di inversione di Möbius, che può essere pensata come un analogo formale del teorema fondamentale del calcolo integrale. Una sorprendente varietà di problemi di calcolo combinatorio si rivelano essere nient'altro che casi particolari di un problema più generale che riguarda la possibilità di invertire una somma fatta sugli elementi di un insieme parzialmente ordinato. L'obiettivo di questo elaborato è quello di illustrare come sia possibile generalizzare il concetto di funzione aritmetica estendendolo a quello di funzione di un'algebra di incidenza. Le algebre di incidenza hanno catturato l'interesse di svariati matematici a partire dagli anni '60 del secolo scorso, e si svilupparono come ambiente naturale nel quale generalizzare la formula di inversione di Mobius. La funzione di Möbius della teoria dei numeri, definita originariamente sull'insieme dei numeri interi positivi ordinato per divisibilità, può quindi essere definita su generici insiemi parzialmente ordinati.
Resumo:
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Resumo:
In questo elaborato sono descritti la progettazione e lo sviluppo di un sistema tomografico con sorgente di raggi X da 300 kV per analisi nel campo dei Beni Culturali; in particolare sono stati effettuati test preliminari sia per verificare le prestazioni del tubo a raggi X e dello schermo scintillatore sia per avere indicazioni utili alla progettazione (e conseguente costruzione) del box di rivelazione. Il collaudo della sorgente di raggi X è stato eseguito con lo studio dell'andamento della dose integrale e/o del rateo di dose in funzione della tensione, della corrente e del tempo d'irraggiamento. La caratterizzazione dello schermo scintillatore di CsI(Tl) è basata sul confronto delle sue caratteristiche con uno schermo analogo di spessore differente nelle stesse condizioni sperimentali, attraverso lo studio dei parametri standard dei dispositivi per imaging, quali la curva di risposta, il rapporto segnale-rumore e la risoluzione spaziale. Inoltre, come ulteriore test, lo schermo scintillatore è stato utilizzato per l’indagine tomografica di alcuni pani di terra contenenti olle di epoca villanoviana. Per la progettazione del box rivelatore sono state invece svolte misure di tipo ottico. I vari test svolti in laboratorio hanno dato risultati positivi e hanno dimostrato la validità dei componenti scelti per il nuovo sistema tomografico, il cui assemblaggio verrà completato a breve, essendo stata ultimata proprio in queste settimane la costruzione del box di rivelazione.
Resumo:
Настоящая защитная работа касается вероятностное прогнозирование в синхронном переводе с немецкого на итальянский. В первой главе речь идет об особенностиях синхронного перевода. В частности говорится о стратегиях, которые помогают переводчику правильно переводить синхронно, то есть когда он должен одновременно слушать речь на одном языке и передавать смысль на другом языке. Во второй главе представляются разные исследования в литературе, выделяя особое внимане на исследованиях, посвещенных синхронному переводу с немецкого. В третьей главе предаставляется провоженное исследование, которое фокузирует на то, как студенты в течение тренировки относятся к антиципации в синхронном переводе с немецкого на итальянский. В последной главе обсуждаются результаты провеженного исследования, которые показывают, что студенты антиципируют правильно но совершенно редко. Это значит, что они используют такую стратегию только тогда, когда они чувствуют себя уверенными, что их ожидания – правильны. В итоге делаются выводы и дается несколько советов, чтобы улучшить подход к этой стратеге во время тренировки.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
Questa tesi verte sulla traduzione di ricette scritte a mano o tramandate oralmente da diverse generazioni di alcune famiglie russe. Anche tali ricette, e non solo quelle riportate nei libri di cucina stampati, contengono preziose informazioni sulle abitudini alimentari dei russi, nonché sulla loro vita quotidiana e sulla storia del loro paese. Ho intervistato alcuni membri di queste famiglie e inviato un questionario online ad altri. Ho fotografato o chiesto di mandarmi fotografie delle ricette trascritte a mano da loro stessi o da alcuni familiari su libri o fogli conservati in casa. Alcune di queste ricette sono state scritte decenni fa, altre sono rielaborazioni più recenti di ricette tradizionali della famiglia o invenzioni delle ultime generazioni. Nella prima parte della mia tesi ho analizzato le tappe fondamentali della letteratura culinaria russa e i processi con cui le ricette tradizionali vengono tramandate alle generazioni successive, sia sotto forma di libri di cucina scritti da chef e autorità nel campo, sia in ambito familiare, trascritte a mano su fogli e quaderni oppure insegnate direttamente, in forma orale. In seguito sono riportate le traduzioni delle ricette: dal boršč della mamma di Kristina, una mia compagna di università alla Moscow State Univesity, alle antiche ricette della bisnonna della mia professoressa Maria Arapova, ancora scritte con l’ortografia prerivoluzionaria, alle specialità di Marzhan, 15 anni, ma già abilissima ai fornelli. Le ricette sono precedute da una breve introduzione sulla storia del piatto oppure da memorie e aneddoti familiari legati ad esso che mi sono stati raccontati durante le interviste o nelle risposte al questionario. Segue un’analisi dei principali problemi affrontati durante la traduzione. In primo luogo, quelli legati al genere testuale: la ricetta è un testo prescrittivo, il che rende l’efficacia della traduzione un aspetto cruciale, ed è anche una tipologia testuale ricca di elementi culturally specific, ad esempio ingredienti e unità di misura. In secondo luogo, vengono analizzate le difficoltà legate al tipo particolare di ricette tradotte: testi ad uso domestico e familiare, ricchi di omissioni e spesso scritti in una grafia difficile da decifrare.
Resumo:
La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.
Resumo:
Il presente studio ha avuto l’obiettivo di indagare la produzione di bioetanolo di seconda generazione a partire dagli scarti lignocellulosici della canna da zucchero (bagassa), facendo riscorso al processo enzimatico. L’attività di ricerca è stata svolta presso il Dipartimento di Ingegneria Chimica dell’Università di Lund (Svezia) all’interno di rapporti scambio con l’Università di Bologna. Il principale scopo è consistito nel valutare la produzione di etanolo in funzione delle condizioni operative con cui è stata condotta la saccarificazione e fermentazione enzimatica (SSF) della bagassa, materia prima che è stata sottoposta al pretrattamento di Steam Explosion (STEX) con aggiunta di SO2 come catalizzatore acido. Successivamente, i dati ottenuti in laboratorio dalla SSF sono stati utilizzati per implementare, in ambiente AspenPlus®, il flowsheet di un impianto che simula tutti gli aspetti della produzione di etanolo, al fine di studiarne il rendimento energetico dell’intero processo. La produzione di combustibili alternativi alle fonti fossili oggigiorno riveste primaria importanza sia nella limitazione dell’effetto serra sia nel minimizzare gli effetti di shock geopolitici sulle forniture strategiche di un Paese. Il settore dei trasporti in continua crescita, consuma nei paesi industrializzati circa un terzo del fabbisogno di fonti fossili. In questo contesto la produzione di bioetanolo può portare benefici per sia per l’ambiente che per l’economia qualora valutazioni del ciclo di vita del combustibile ne certifichino l’efficacia energetica e il potenziale di mitigazione dell’effetto serra. Numerosi studi mettono in risalto i pregi ambientali del bioetanolo, tuttavia è opportuno fare distinzioni sul processo di produzione e sul materiale di partenza utilizzato per comprendere appieno le reali potenzialità del sistema well-to-wheel del biocombustibile. Il bioetanolo di prima generazione ottenuto dalla trasformazione dell’amido (mais) e delle melasse (barbabietola e canna da zucchero) ha mostrato diversi svantaggi: primo, per via della competizione tra l’industria alimentare e dei biocarburanti, in secondo luogo poiché le sole piantagioni non hanno la potenzialità di soddisfare domande crescenti di bioetanolo. In aggiunta sono state mostrate forti perplessità in merito alla efficienza energetica e del ciclo di vita del bioetanolo da mais, da cui si ottiene quasi la metà della produzione di mondiale di etanolo (27 G litri/anno). L’utilizzo di materiali lignocellulosici come scarti agricolturali e dell’industria forestale, rifiuti urbani, softwood e hardwood, al contrario delle precedenti colture, non presentano gli svantaggi sopra menzionati e per tale motivo il bioetanolo prodotto dalla lignocellulosa viene denominato di seconda generazione. Tuttavia i metodi per produrlo risultano più complessi rispetto ai precedenti per via della difficoltà di rendere biodisponibili gli zuccheri contenuti nella lignocellulosa; per tale motivo è richiesto sia un pretrattamento che l’idrolisi enzimatica. La bagassa è un substrato ottimale per la produzione di bioetanolo di seconda generazione in quanto è disponibile in grandi quantità e ha già mostrato buone rese in etanolo se sottoposta a SSF. La bagassa tal quale è stata inizialmente essiccata all’aria e il contenuto d’acqua corretto al 60%; successivamente è stata posta a contatto per 30 minuti col catalizzatore acido SO2 (2%), al termine dei quali è stata pretrattata nel reattore STEX (10L, 200°C e 5 minuti) in 6 lotti da 1.638kg su peso umido. Lo slurry ottenuto è stato sottoposto a SSF batch (35°C e pH 5) utilizzando enzimi cellulolitici per l’idrolisi e lievito di birra ordinario (Saccharomyces cerevisiae) come consorzio microbico per la fermentazione. Un obiettivo della indagine è stato studiare il rendimento della SSF variando il medium di nutrienti, la concentrazione dei solidi (WIS 5%, 7.5%, 10%) e il carico di zuccheri. Dai risultati è emersa sia una buona attività enzimatica di depolimerizzazione della cellulosa che un elevato rendimento di fermentazione, anche per via della bassa concentrazione di inibitori prodotti nello stadio di pretrattamento come acido acetico, furfuraldeide e HMF. Tuttavia la concentrazione di etanolo raggiunta non è stata valutata sufficientemente alta per condurre a scala pilota un eventuale distillazione con bassi costi energetici. Pertanto, sono stati condotti ulteriori esperimenti SSF batch con addizione di melassa da barbabietola (Beta vulgaris), studiandone preventivamente i rendimenti attraverso fermentazioni alle stesse condizioni della SSF. I risultati ottenuti hanno suggerito che con ulteriori accorgimenti si potranno raggiungere gli obiettivi preposti. E’ stato inoltre indagato il rendimento energetico del processo di produzione di bioetanolo mediante SSF di bagassa con aggiunta di melassa in funzione delle variabili più significative. Per la modellazione si è fatto ricorso al software AspenPlus®, conducendo l’analisi di sensitività del mix energetico in uscita dall’impianto al variare del rendimento di SSF e dell’addizione di saccarosio. Dalle simulazioni è emerso che, al netto del fabbisogno entalpico di autosostentamento, l’efficienza energetica del processo varia tra 0.20 e 0.53 a seconda delle condizioni; inoltre, è stata costruita la curva dei costi energetici di distillazione per litro di etanolo prodotto in funzione delle concentrazioni di etanolo in uscita dalla fermentazione. Infine sono già stati individuati fattori su cui è possibile agire per ottenere ulteriori miglioramenti sia in laboratorio che nella modellazione di processo e, di conseguenza, produrre con alta efficienza energetica bioetanolo ad elevato potenziale di mitigazione dell’effetto serra.
Resumo:
Le strutture caratterizzate da una non coincidenza tra il baricentro delle masse e quello delle rigidezze, chiamate strutture eccentriche, sviluppano degli effetti torsionali se soggette ad un’eccitazione dinamica. Un’accurata analisi delle equazioni del moto di sistemi lineari e non lineari di strutture ad un singolo piano ha portato allo sviluppo di un metodo, detto metodo ALPHA, che, attraverso un parametro, detto parametro “alpha”, permette di stimare gli spostamenti di rotazione in funzione dei soli spostamenti longitudinali. Il limite di questo metodo, tuttavia, è quello di essere riferito a strutture ad un singolo piano, non comuni nella pratica progettuale: si è reso quindi necessario uno studio per testarne la validità anche per strutture multi piano, partendo da strutture semplici a due e tre piani. Data la semplicità del metodo ALPHA, si è deciso di affrontare questo problema cercando di cogliere il comportamento dei diversi piani della struttura multipiano con delle strutture ad un singolo piano. Sono state svolte numerose analisi numeriche in cui sono stati fatti variare i parametri di rigidezza, massa, eccentricità e distribuzione delle rigidezze dei vari piani; come indice di validità della struttura mono piano scelta si è utilizzato il rapporto tra il parametro “psi” dell’i-esimo piano e quello della struttura mono piano scelta, dove “psi” rappresenta il rapporto tra “R” ed “alpha”; “R” è il rapporto tra la massima rotazione e il massimo spostamento longitudinale per una struttura eccentrica soggetta ad un’eccitazione dinamica. Dai risultati ottenuti si deduce che, nella maggioranza dei casi, la struttura mono piano che meglio rappresenta il comportamento di tutti i piani è caratterizzata da massa e rigidezza dell’intera struttura multipiano, da un’eccentricità pari alla minore tra quelle dei vari piani e presenta la peggiore distribuzione delle rigidezze tra quelle che si riscontrano nei vari piani.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.