999 resultados para Filosofia de la natura
Resumo:
Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.
Resumo:
Lo scattering è un processo fisico che descrive le interazioni tra particelle e radiazione elettromagnetica. Esistono diversi tipi di scattering, dove la natura di questi processi dipende dall'energia della particella e della radiazione. Quando l'elettrone fermo subisce un urto elastico con un fotone di bassa energia si ha lo \emph{scattering Thomson}. In questo processo l'onda elettromagnetica accelera la particella; successivamente dopo l'urto l'onda viene diffusa con la stessa frequenza iniziale. Questo processo accade a basse energie poichè ad energie più alte prevale l'effetto dovuto allo \emph{scattering Compton}. In questo meccanismo un fotone interagisce con un elettrone cedendogli energia e in particolare si ha una variazione di frequenza per il fotone. Quando è l'elettrone a trasferire al fotone parte della sua energia si ha \emph{Inverse Compton}. Gli ultimi due processi in realtà sono situazioni limite di un caso più generale chiamato \emph{Comptonizzazione}. Considerando un plasma rarefatto di fotoni ed elettroni, la Comptonizzazione stabilisce come l'evoluzione dello spettro viene modificato a causa dell'interazione tra fotoni ed elettroni. Nel secondo capitolo di questo elaborato verrà esaminata l'emissione in banda X della radiazione elettromagnetica in seguito a fenomeni di accrescimento intorno a buchi neri; nello specifico si analizzerà l'emissione soft e hard per buchi neri galattici.
Resumo:
Da alcuni decenni l’interesse verso i prodotti naturali di origine marina ha portato ad un’intensa ricerca di composti antiossidanti nelle alghe, prodotti per tollerare lo stress ossidativo frequente nelle condizioni ambientali a cui sono soggette. Tra le varie macroalghe le Phaeophyceae, come rivelano numerosi studi, hanno un elevato potenziale antiossidante, spesso associato alla ricchezza in polifenoli. Tuttavia la natura dei composti responsabili di questa attività è ancora oggetto di discussione. Questo lavoro di tesi si è focalizzato sulla determinazione del contenuto polifenolico totale in estratti dell’alga bruna Fucus vesiculosus ottenuti con solvente acetone:acqua in diverse condizioni di tempo e temperatura, tramite il metodo di Folin-Ciocalteau. e sulla valutazione dell’attività antiradicalica degli estratti, con il test del DPPH (2,2-difenil-1-picrilidrazile). Secondariamente è stata effettuata la ricerca di 14 composti fenolici tramite RS-HPLC ed è stata valutata la correlazione tra attività antiossidante e il contenuto di polifenoli totali e individuali. Temperature più alte hanno favorito una maggiore concentrazione di composti fenolici nei campioni, mentre estratti ricavati in tempi brevi a temperature più basse manifestano un’attività antiossidante significativamente più alta. Inoltre il contenuto dei polifenoli totali non è risultato correlato all’attività antiossidante riscontrata. Tra i composti individuali analizzati: miricetina, acido ferulico e catechina, sono stati identificati in tutti gli estratti. La concentrazione di acido ferulico non ha mostrato variazioni significative tra i campioni, mentre la miricetina è risultata più concentrata in estratti ottenuti a temperature maggiori, e la catechina in quelli a temperature minori. Quest’ultima, a differenza dei primi due, mostra una correlazione con l’attività antiossidante, tuttavia molto debole. Sulla base dei risultati ottenuti si può affermare che l’alga Fucus vesiculosus presenta un’importante attività antiossidante ma, in accordo con diversi autori, altri metaboliti devono essere i principali responsabili di questa attività, dal momento che non risulta correlata con il contenuto fenolico.
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
Capire come modellare l'attività del cervello a riposo, resting state, è il primo passo necessario per avvicinarsi a una reale comprensione della dinamica cerebrale. Sperimentalmente si osserva che, quando il cervello non è soggetto a stimoli esterni, particolari reti di regioni cerebrali presentano un'attività neuronale superiore alla media. Nonostante gli sforzi dei ricercatori, non è ancora chiara la relazione che sussiste tra le connessioni strutturali e le connessioni funzionali del sistema cerebrale a riposo, organizzate nella matrice di connettività funzionale. Recenti studi sperimentali mostrano la natura non stazionaria della connettività funzionale in disaccordo con i modelli in letteratura. Il modello implementato nella presente tesi per simulare l'evoluzione temporale del network permette di riprodurre il comportamento dinamico della connettività funzionale. Per la prima volta in questa tesi, secondo i lavori a noi noti, un modello di resting state è implementato nel cervello di un topo. Poco è noto, infatti, riguardo all'architettura funzionale su larga scala del cervello dei topi, nonostante il largo utilizzo di tale sistema nella modellizzazione dei disturbi neurologici. Le connessioni strutturali utilizzate per definire la topologia della rete neurale sono quelle ottenute dall'Allen Institute for Brain Science. Tale strumento fornisce una straordinaria opportunità per riprodurre simulazioni realistiche, poiché, come affermato nell'articolo che presenta tale lavoro, questo connettoma è il più esauriente disponibile, ad oggi, in ogni specie vertebrata. I parametri liberi del modello sono stati scelti in modo da inizializzare il sistema nel range dinamico ottimale per riprodurre il comportamento dinamico della connettività funzionale. Diverse considerazioni e misure sono state effettuate sul segnale BOLD simulato per meglio comprenderne la natura. L'accordo soddisfacente fra i centri funzionali calcolati nel network cerebrale simulato e quelli ottenuti tramite l'indagine sperimentale di Mechling et al., 2014 comprovano la bontà del modello e dei metodi utilizzati per analizzare il segnale simulato.
Resumo:
La vongola Chamelea gallina è un mollusco appartenente alla famiglia Veneridae avente un'ampia distribuzione nel Mediterraneo. L’animale vive su fondali sabbiosi o sabbiosi – fangosi, con distribuzione aggregata, in prossimità della costa, a bassa profondità da 0 a 15metri. Nel presente studio è stata stimata sia la biomassa di Chamelea gallina espressa in kg/mq che la distribuzione di taglia, per valutare l’accrescimento della specie. L’accrescimento della vongola, così come per altre specie fossorie è influenzato da fattori biotici e abiotici, come la temperatura, lo stato trofico delle acque, la natura dei sedimenti ed infine la densità. Lo scopo di questa tesi è stato quello di monitorare l’attività di pesca delle vongole nel Compartimento di Rimini e raccogliere gli elementi conoscitivi esistenti a fine di ottimizzare la gestione della risorsa. A tal fine sono state realizzate a Rimini due campagne di pesca nel mese di Luglio e Dicembre 2014, utilizzando una draga idraulica di tipo commerciale conforme agli standard previsti dalla legge. Il campionamento è stato effettuato su 9 transetti perpendicolari alla costa con stazioni a 0,25-0,50-0,75 e proseguendo 1 Miglio qualora nei campioni vi sia ancora la presenza di vongole. A fine di valutare la frazione di individui con taglia inferiore a quella commerciale (25mm), all’interno della draga è stato posto un retino campionatore. Il materiale contenuto nella draga è stato selezionato al vibro-vaglio installato a bordo, attrezzato con griglie aventi fori del diametro di 19mm di apertura. Tutte le vongole trattenute dal vaglio sono state analizzate per ottenere una distribuzione di taglia. I risultati acquisiti nel corso della presente indagine hanno evidenziato una generale situazione di sofferenza per la taglia commerciale. In particolare sono state catturate molte vongole della prima maturità sessuale (14mm). Tutto ciò potrebbe essere proprio un’indicazione di banco in ricostituzione e ripresa dopo una situazione di crisi. Per quanto riguarda le forme giovanili i risultati ottenuti dalle due campagne di pesca indicano una notevole differenza di densità dei banchi di Chamelea gallina. Tali risultati sono stati ottenuti con il software ImageJ, il quale è in grado di rilevare la larghezza massima delle singole vongole. Infine sono stati registrati i valori di biomassa espressi in kg/mq, evidenziando una discreta oscillazione di valori tra le stazioni campionate. Infatti in entrambi i campionamenti le stazioni situate all’ interno degli strati più costieri presentano nella maggior parte dei casi valori, sia in biomassa che in numero, maggiori rispetto a quelle di largo. Concludendo, l’insieme dei dati raccolti ha evidenziato la necessità di urgenti misure di controllo e regolamentazione della risorsa, dei parametri eco-ambientali e della pesca esercitata, al fine di acquisire quelle informazioni utili per avviare un corretto piano di gestione della risorsa.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
Wanderlust, tradotto in italiano con il titolo Giramondo, è uno dei romanzi della famosa autrice americana Danielle Steel nel quale viene raccontata la storia di una giovane donna che decide di seguire il suo forte impulso di viaggiare e di partire per un viaggio oltre oceano. Wanderlust, parola di origine tedesca, oggi significa “forte desiderio o impulso a viaggiare”(Duden Wörterbuch:online) e deriva dal verbo tedesco wandern. Il verbo wandern ha in Germania un importante ruolo sia a livello storico-politico che culturale, tale da rendere difficile la ricerca di un termine equivalente nelle altre lingue, italiano compreso. Il termine, figlio dell’epoca illuminista e romantica indicava in origine un’attività che implicava un “andare a piedi nella natura” ed era “simbolo di un nuovo rapporto dell’individuo con la natura” (Dizionario Zanichelli Tedesco-Italiano). Il Wandern, sviluppatosi nel tempo in ambito politico e soprattutto formativo, contiene nella sua definizione più antica elementi importanti come l’incontro con ciò che è sconosciuto, il rapporto tra corpo anima e natura, la formazione attraverso l’esperienza pratica e il viaggiare inteso come un camminare senza una meta. La Wanderlust dovrebbe quindi essere definita come un forte desiderio o impulso a vagare per imparare, per andare incontro a ciò che è sconosciuto ma, così come il verbo wandern, ha acquistato in uso moderno il significato di viaggiare come attività del tempo libero ed è spesso collegato a situazioni di svago e relax quali le vacanze.
Resumo:
Il lavoro a partire dalla traduzione del romanzo autobiografico Je ne parle pas la langue de mon père dell’autrice francese di origine algerina Leïla Sebbar, si propone di riflettere sul rapporto tra esilio e meticciato culturale e sulla relazione che questi intrattengono con la traduzione. Il primo capitolo vuole fornire un’introduzione al tema della migrazione nella letteratura postcoloniale in quanto luogo privilegiato per la costruzione di paradigmi identitari, con particolare riferimento alle letterature francofone, al caso maghrebino e algerino. In questo ambito un’attenzione speciale è dedicata alle scritture femminili e a come la prospettiva di genere arricchisca il panorama letterario migrante di inedita sensibilità e complessità. La seconda sezione si focalizza sull’opera di Leïla Sebbar e sulla peculiare posizione che l’autrice occupa nel contesto francofono contemporaneo per terminare con un’analisi puntuale della pluralità delle istanze di Je ne parle pas la langue de mon père in quanto significanti delle tematiche dell’esilio e del meticciato. In particolare viene presa in considerazione la natura ibrida del genere testuale e l’apporto lessicale e sintattico della lingua arabo-berbera come elemento stilistico e identitario. Il terzo capitolo presenta una personale proposta di traduzione italiana del testo, nella prospettiva di una pubblicazione all’interno di un reale scenario editoriale. Basandomi sulle problematiche incontrate in sede traduttiva, ho cercato di definire il ruolo del traduttore e di valutare l’adeguatezza degli strumenti di cui dispone, tanto all’interno del testo quanto nell’apparato paratestuale, al momento di veicolare lingue terze e mondi altri. Una parentesi è dedicata all’esame dei limiti legati alla ricezione di un testo di questo tipo nel mondo editoriale italiano. Infine, la personale esperienza traduttiva viene raffrontata con alcuni contributi all’interno del dibattito contemporaneo sulla traduzione della letteratura postcoloniale.
Uso di 3d slicer in ambito di ricerca clinica: Una revisione critica delle esperienze di riferimento
Resumo:
Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
Resumo:
In questo lavoro è presentato l'utilizzo della spettroscopia di assorbimento di raggi X applicata all'indagine inerente il numero e la natura degli atomi vicini di un centro metallico a due diversi stati di ossidazione [Cu(I) e Cu(II)] all'interno di complessi fosfinici e/o azotati. Gli spettri sono stati registrati nella loro completezza, comprendendo sia la soglia sia lo spettro esteso di assorbimento, e le transizioni elettroniche 1s→3d e 1s→4p sono state oggetto d'esame per avere indicazioni circa l'intorno locale del fotoassorbitore (l'atomo centrale). La tecnica più utilizzata, tuttavia, è stata l'analisi EXAFS (Extended X-ray Absorption Fine Structure) che ha permesso di determinare l’effettiva coordinazione di Cu(I) e (II) nel caso dei complessi studiati. Il metodo consiste nella costruzione di un segnale teorico più simile possibile a quello ottenuto sperimentalmente, e l’approccio per raggiungere questo obiettivo consiste nel seguire una procedura di fitting eseguita computazionalmente (tramite il pacchetto software GNXAS), per la quale è necessario un modello strutturale già esistente o creato ex novo da una molecola di partenza molto simile. Sarà presentato lo studio degli esperimenti ottenuti su campioni sia solidi che in soluzione: in questo modo è stato possibile effettuare un confronto tra le due forme dello stesso composto nonché si è potuto osservare i cambiamenti riguardanti l’interazione metallo-solvente a diverse concentrazioni. Come sarà mostrato in seguito, l’analisi sui solidi è risultata più affidabile rispetto a quella riferita alle soluzioni; infatti il basso rapporto segnale/rumore caratterizzante le misure di queste ultime ha limitato le informazioni ottenibili dai relativi spettri di assorbimento di raggi X.
Resumo:
Le proprietà reologiche degli alimenti cremosi a fini medici speciali, come quelli per l’alimentazione dei pazienti disfagici, sono influenzate dalla formulazione e dalle tecnologie di produzione. Gli obiettivi di questa tesi, sono stati i seguenti: - individuazione di metodi e parametri reologici empirico-imitativi per la caratterizzazione di campioni di creme alimentari; - studio dell’effetto di differenti quantità di addensante sulle caratteristiche reologiche di creme alimentari; - studio dell’effetto della conservazione in regime di refrigerazione (4° C) o surgelazione (-18°C) sulle caratteristiche reologiche di differenti creme alimentari. Questo al fine di approfondire la conoscenza di tali aspetti per ottimizzare le modalità di produzione e conservazione di differenti creme alimentari destinate all’alimentazione di pazienti disfagici. Dai risultati ottenuti è emerso come tra i metodi ed i parametri empirico-imitativi considerati, quello che sembra essere risultato più idoneo per la determinazione rapida delle caratteristiche di viscosità dei campioni di creme alimentari analizzati è risultato il parametro coesività valutato con test di back extrusion. Per la natura pseudo-plastica dei campioni analizzati, contrariamente a quanto indicato dal produttore, l’utilizzo del viscosimetro vibrazionale non è risultato essere ottimale, per l’instabilità della misura legata alla modifica più o meno importante della viscosità dei sistemi analizzati causata dall’azione delle onde sonore generate dal probe. La caratterizzazione reologica delle creme con differenti contenuti di addensante ha permesso di creare delle cinetiche legate alla modifica delle caratteristiche reologiche empirico-imitative dei sistemi in funzione della quantità di addensate aggiunto. Correlando tali informazioni con il livello di accettazione dei prodotti da parte del paziente disfagico sarà possibile creare degli standard produttivi reologici per la preparazione di prodotti idonei alla sua alimentazione. Le differenti temperature di conservazione dei prodotti, in regime di refrigerazione o congelamento, sembrano non aver influenzato le caratteristiche reologiche delle creme analizzate.