509 resultados para cinetica, sodio, modelli matematici, emodialisi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dal 2008, sono evidenti che i benefici del selenio nell'organismo dipendono dalla forma in cui è ingerito, stabilendo che quella organica è migliore dell'inorganica. L’introduzione di selenio raccomandato a livello internazionale è di 55-70 μg/giorno e la sua specie chimica efficace dal punto di vista biologico è la seleniometionina. Infatti, si può affermare che il selenio in forma inorganica possieda una bassa bioattività rispetto al selenio legato agli aminoacidi (Se-metionina e Se-cisteina) di maggiore bioattività. Nell’ambito dei prodotti lievitati da forno, uno dei fattori che desta maggior interesse è l’effetto esercitato dal processo tecnologico (che include fermentazione e cottura) sull’aumento della biodisponibilità dei composti antiossidanti e nutrizionali. In particolare, attraverso il processo fermentativo, è possibile aumentare sia l’azione degli enzimi digestivi sul substrato alimentare, che la stabilità del selenio inorganico e organico presente modificandone le caratteristiche chimiche e fisiche (es. organicazione). Nello specifico, i processi fermentativi che caratterizzano gli impasti acidi (basati sulle interazioni metaboliche tra batteri lattici e lieviti) sono stati riconosciuti efficaci per modificare la composizione delle micro e macromolecole responsabili del miglioramento non solo delle caratteristiche qualitative ma anche di quelle nutrizionali, come il selenio. Lo scopo della mia tesi era lo sviluppo di un prodotto funzionale a base di cereali arricchito con selenio bioattivo tramite un processo di natura biotecnologica di tipo fermentativo. L’aggiunta di selenio alla farina attraverso un impasto acido arricchito favorisce la sua organicazione da parte dei batteri lattici presenti che trasformano parte del selenio additivato (SeIV) in forme organiche come SeMet e MeSeCys e in parte in altri frammenti organici non rilevati dall’analisi. D’altra parte la quantità di selenio inorganico rilevato nei digeriti di piadina ottenuta con impasto acido è risultata essere drasticamente ridotta. Dalla mia sperimentazione ho ottenuto molteplici indicazioni che riguardano la possibilità di produrre un alimento fermentato a base di cereali ed a elevato contenuto di selenio bioattivo. Dal punto di vista applicativo questo sperimentazione costituisce una base sia per la comprensione del ruolo dei processi fermentativi nella generazione di alimenti o ingredienti funzionali ma anche per l’individuazione di nuovi microrganismi probiotici con potenziali attività antiossidante ricchi di selenio bioattivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tecnologie sviluppatesi a cavallo del nuovo millennio hanno dato e stanno dando un grande impulso all'evoluzione dei processi che riguardano qualsiasi campo della vita di oggigiorno: tutto ciò riguarda ovviamente anche le aziende, che si adoperano nel trovare nuove soluzioni che possano garantire profitti maggiori abbinati a costi di gestione minori. Risulta quindi interessante approcciarsi allo studio dei processi decisionali ed organizzativi che interessano un'azienda e come i suddetti vengano influenzati dall'uso delle tecnologie. In particolare, l'adattamento delle strategie e dei modelli di business alle tecnologie odierne è una sfida interessante e ripetuta nel tempo, in quanto le tecnologie si sviluppano e si evolvono in tempi sempre più brevi, con tutti i vantaggi ed i rischi del caso. Questa tesi si pone l'obiettivo di analizzare i temi inerenti all'E-Business, ovvero l'applicazione delle Information and Communication Technologies (ICT) in supporto alle attività di business di un'azienda. Verrano esaminati in che modo un'impresa deve approcciarsi per sviluppare ed implementare una strategia e-business, quali sono i fattori che influenzano una strategia, quali sono i vantaggi e gli svantaggi dell'adozione di tale strategia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Viene sviluppata in XCSurf, un pacchetto di XCModel, una struttura dati chiamata B-Rep il cui scopo è quello di poter accogliere sia geometrie mesh che nurbs. La struttura B-Rep è stata progettata nel lavoro di tesi di F.Pelosi a seguito del riscontro di diverse analogie fra la struttura winged-edge (per mesh) e la struttura B-Rep (per nurbs). In questa tesi viene sviluppata ed integrata ulteriormente. Il punto di arrivo è la possibilità di attaccare due modelli qualsiasi (Nurbs + Nurbs, Mesh + Nurbs, Mesh + Mesh), deformando opportunamente le parti da attaccare, ma mantenendo tutte le informazioni in un'unica struttura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro è finalizzato ad illustrare i metodi algebrici di base e alcune applicazioni della Meccanica Quantistica Supersimmetrica, partendo da semplici modelli quantistici, come l’oscillatore armonico. Una volta introdotti tali metodi, rappresentati principalmente dalla fattorizzazione di hamiltoniani e dalla costruzione di sistemi partner supersimmetrici, nel corso della trattazione, vengono formalizzate le regole dell’algebra di Supersimmetria N=2 e mostrate le principali proprietà. Viene inoltre definito l’indice di Witten per analizzare la rottura spontanea della Supersimmetria. Infine, si applicano i risultati esposti a semplici modelli fisici: la barriera infinita e l’oscillatore armonico supersimmetrico discutendo di quest’ultimo le principali caratteristiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente tesi ci si pone lo scopo di studiare stabilità, ciclabilità e cinetica di campioni composti da magnesio e titanio (Mg-Ti) prodotti con la tecnica della condensazione in gas inerte (IGC) per lo di stoccaggio di idrogeno. Il sistema Mg-Ti sembra essere un buon candidato per poter costruire serbatoi di idrogeno allo stato solido sia per applicazioni fisse che mobili. La ricerca di tecnologie efficaci per immagazzinare idrogeno è fondamentale per poter affermare un ciclo energetico sostenibile, svincolato dai combustibili fossili. Sia il lavoro di crescita dei campioni all'Università di Bologna, sia la caratterizzazione di questi nei laboratori dell' Institut de Chimie et des Materiaux Paris-Est (ICMPE) si collocano all'interno del progetto europeo COST per la ricerca di materiali nanostrutturati destinati ad applicazioni nel campo dello stoccaggio dell'energia in forma di idrogeno allo stato solido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si propone di dare una caratterizzazione generale sulla dinamica delle galassie, in particolare, il caso ellittico e a spirale. Nel primo capitolo, sono state esposte le scale delle grandezze fisiche che caratterizzano e definiscono una galassia e gli aspetti osservativi che hanno portato a distinguerne poche grossolane categorie in base a proprietà visive, mostrando importanti correlazioni con proprietà morfologiche e strutturali. Nel secondo capitolo, corpo principale dell'elaborato, vengono motivate le principali ipotesi che permettono di trattare una generica galassia, assunta composta da un numero N di stelle come un non collisionale, portando vantaggi di semplificazione del problema: si parte dall'ipotesi di approssimazione delle stelle come punti materiali, fino a trascurare la granularità del sistema, entro un tempo scala detto tempo di rilassamento. Segue una trattazione di estrapolazione di informazioni dalle equazioni che descrivono il moto e una breve esposizione della principale distinzione tra un fluido ordinario e un fluido non collisionale, derivante dalla stessa ipotesi di sistema non collisionale. Il terzo capitolo si propone di dare alcune applicazioni, alle galassie ellittiche e spirali, dei risultati teorici trattati nel capitolo precedente, con brevi riscontri nell'ambito osservativo. Nel caso delle galassie a spirale si accenna alla principale motivazione che ha portato all'ipotesi dell'esistenza della materia oscura e vengono illustrati qualitativamente, i modelli più semplici di descrizione della dinamica dei bracci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I calibratori di attività dei radionuclidi sono strumenti fondamentali per la pratica diagnostica e terapeutica in Medicina Nucleare. Il loro ruolo principale è quello di quantificare accuratamente l’attività dei radiofarmaci somministrata ai pazienti, vengono pertanto progettati per avere una accuratezza di misura ottimale per attività relativamente alte. Lo scopo di questo studio è stato quello di determinare il livello di minima attività rivelabile (o Minimum Detectable Activity, MDA) di diversi modelli di calibratori di attività, al fine di estendere l’utilizzo di questi strumenti ad altre applicazioni. E’ stata quindi eseguita un’estesa campagna di misure sperimentali sui principali modelli di calibratori commercialmente distribuiti. Le modalità di misura della MDA sviluppate sono basate su un adattamento delle tecniche di riferimento per altri tipi di strumenti; tali tecniche, non solo rispondono all’obiettivo immediato, ma hanno permesso di dimostrare che è possibile una determinazione generalizzata della MDA di questa classe di apparecchiature. I risultati che verranno presentati sono stati ottenuti con una metodologia indipendente dal tipo di apparecchiatura e sono basati su misurazioni che possono essere replicate in ogni laboratorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il flusso di Rayleigh-Bénard, costituito da un fluido racchiuso fra due pareti a diversa temperatura, rappresenta il paradigma della convezione termica. In natura e nelle applicazioni industriali, il moto convettivo avviene principalmente in regime turbolento, rivelando un fenomeno estremamente complesso. L'obiettivo principale di questo elaborato di tesi consiste nell'isolare e descrivere gli aspetti salienti di un flusso turbolento di Rayleigh-Bénard. L'analisi è applicata a dati ottenuti da tre simulazioni numeriche dirette effettuate allo stesso numero di Rayleigh (Ra=10^5) e a numeri di Prandtl differenti (Pr=0.7,2,7). Sulla base di alcune statistiche a singolo punto, vengono definite nel flusso tre regioni caratteritiche: il bulk al centro della cella, lo strato limite termico e quello viscoso in prossimità delle pareti. Grazie all'analisi dei campi istantanei e delle correlazioni spaziali a due punti, sono state poi individuate due strutture fondamentali della convezione turbolenta: le piume termiche e la circolazione a grande scala. L'equazione generalizzata di Kolmogorov, introdotta nell'ultima parte della trattazione, permette di approcciare il problema nella sua complessità, visualizzando come l'energia cinetica viene immessa, si distribuisce e viene dissipata sia nello spazio fisico, sia in quello delle scale turbolente. L'immagine che emerge dall'analisi complessiva è quella di un flusso del tutto simile a una macchina termica. L'energia cinetica viene prodotta nel bulk, considerato il motore del flusso, e da qui fluisce verso le pareti, dove viene infine dissipata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rivelatore di luminosità LUCID di ATLAS, in LHC, deve cambiare fotomoltiplicatori durante il Long Shutdown I. Due modelli candidati per la sostituzione sono stati irradiati con raggi gamma per studiarne la resistenza alla radiazione. In questa tesi si riportano i risultati delle misure di dark current, guadagno relativo e risposta spettrale prima e dopo l'irraggiamento. L'unica differenza di rilievo dopo l'irraggiamento risulta essere l'aumento di dark current. All'interno dell'incertezza di misura, non ci sono variazioni negli altri parametri e non ci sono differenze sostanziali fra i due modelli.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi è incentrata sull'analisi della formula di Dupire, che permette di ottenere un'espressione della volatilità locale, nei modelli di Lévy esponenziali. Vengono studiati i modelli di mercato Merton, Kou e Variance Gamma dimostrando che quando si è off the money la volatilità locale tende ad infinito per il tempo di maturità delle opzioni che tende a zero. In particolare viene proposta una procedura di regolarizzazione tale per cui il processo di volatilità locale di Dupire ricrea i corretti prezzi delle opzioni anche quando si ha la presenza di salti. Infine tale risultato viene provato numericamente risolvendo il problema di Cauchy per i prezzi delle opzioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi presenta una serie di risultati dell'analisi quantitativa sulla linguistica. Inizialmente sono studiate due fra le leggi empiriche più famose di questo campo, le leggi di Zipf e Heaps, e vengono esposti vari modelli sullo sviluppo del linguaggio. Nella seconda parte si giunge alla discussione di risultati più specifici sulla presenza di fenomeni di burstiness e di correlazioni a lungo raggio nei testi. Tutti questi studi teorici sono affiancati da analisi sperimentali, svolte utilizzando varie traduzioni del libro "Guerra e pace" di Leo Tolstoj e concentrate principalmente sulle eventuali differenze riscontrabili tra le diverse lingue.