977 resultados para modellizzazione modellizzazione di un problema reale modelli matematici matematizzazione equazioni differenziali
Resumo:
Dal 2008, sono evidenti che i benefici del selenio nell'organismo dipendono dalla forma in cui è ingerito, stabilendo che quella organica è migliore dell'inorganica. L’introduzione di selenio raccomandato a livello internazionale è di 55-70 μg/giorno e la sua specie chimica efficace dal punto di vista biologico è la seleniometionina. Infatti, si può affermare che il selenio in forma inorganica possieda una bassa bioattività rispetto al selenio legato agli aminoacidi (Se-metionina e Se-cisteina) di maggiore bioattività. Nell’ambito dei prodotti lievitati da forno, uno dei fattori che desta maggior interesse è l’effetto esercitato dal processo tecnologico (che include fermentazione e cottura) sull’aumento della biodisponibilità dei composti antiossidanti e nutrizionali. In particolare, attraverso il processo fermentativo, è possibile aumentare sia l’azione degli enzimi digestivi sul substrato alimentare, che la stabilità del selenio inorganico e organico presente modificandone le caratteristiche chimiche e fisiche (es. organicazione). Nello specifico, i processi fermentativi che caratterizzano gli impasti acidi (basati sulle interazioni metaboliche tra batteri lattici e lieviti) sono stati riconosciuti efficaci per modificare la composizione delle micro e macromolecole responsabili del miglioramento non solo delle caratteristiche qualitative ma anche di quelle nutrizionali, come il selenio. Lo scopo della mia tesi era lo sviluppo di un prodotto funzionale a base di cereali arricchito con selenio bioattivo tramite un processo di natura biotecnologica di tipo fermentativo. L’aggiunta di selenio alla farina attraverso un impasto acido arricchito favorisce la sua organicazione da parte dei batteri lattici presenti che trasformano parte del selenio additivato (SeIV) in forme organiche come SeMet e MeSeCys e in parte in altri frammenti organici non rilevati dall’analisi. D’altra parte la quantità di selenio inorganico rilevato nei digeriti di piadina ottenuta con impasto acido è risultata essere drasticamente ridotta. Dalla mia sperimentazione ho ottenuto molteplici indicazioni che riguardano la possibilità di produrre un alimento fermentato a base di cereali ed a elevato contenuto di selenio bioattivo. Dal punto di vista applicativo questo sperimentazione costituisce una base sia per la comprensione del ruolo dei processi fermentativi nella generazione di alimenti o ingredienti funzionali ma anche per l’individuazione di nuovi microrganismi probiotici con potenziali attività antiossidante ricchi di selenio bioattivo.
Resumo:
Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.
Resumo:
Questo lavoro di tesi �si basa sull'estendere l'architettura del software NILDE - Network Inter Library Document Exchange attraverso un processo di migrazione verso servizi REST (REpresentational State Transfer) utilizzando e ampliando metodologie, best practice e frameworks che hanno permesso lo sviluppo di API Pubbliche e Private utilizzabili da utenti esterni.
Resumo:
In questa tesi verranno chiariti i concetti di open source e software libero e alcune nozioni utili a comprenderli. Verranno poi spiegate brevemente le licenze GPLv3 AGPLv3 e LGPLv3. Infine verrà spiegato come applicare la licenza GPLv3 al proprio programma, e verranno forniti alcuni consigli su come diffonderlo nel web.
Resumo:
Nel contesto economico odierno i sistemi di raccomandazione rappresentano uno strumento utile al fine di aumentare le vendite con pubblicità e promozioni su misura per ciascun utente. Tali strumenti trovano numerose applicazioni nei siti di e-commerce, si pensi ad Amazon o a MovieLens. Esistono diverse tipologie di sistemi di raccomandazione, che si differenziano principalmente per il modo con cui sono prodotte le raccomandazioni per gli utenti. In questa tesi se ne vuole definire una nuova tipologia, che superi la restrizione del vincolo ad un sito a ad una società, fornendo agli utenti raccomandazioni di prodotti acquistabili in negozi reali e il più possibile accessibili, nel senso geografico del termine. Si e inoltre astratto il concetto di raccomandazione, passando da un insieme omogeneo di oggetti ad un insieme eterogeneo di entità ottenibili attraverso lo svolgimento di attività. Con queste premesse il sistema da definire dovrà raccomandare non più solo entità, ma entità e shop presso i quali sono disponibili per le persone.
Resumo:
L'obiettivo della tesi è quello di studiare e realizzare un emulatore grafico per la progettazione di piccoli esperimenti di interfacciamento tra le emulazioni di un Raspberry Pi e un circuito elettronico. Lo scopo principale di questo emulatore è la didattica, in questo modo sarà possibile imparare le basi senza paura di danneggiare i componenti e sopratutto senza la necessità di avere il dispositivo fisico.
Resumo:
Con questo lavoro ci si pone l’obiettivo di creare un social network che possa aiutare i praticanti del ciclismo, sia a livello agonistico che a livello amatoriale, ad organizzare le loro attività di allenamento, attraverso l’utilizzo di un software sviluppato per smartphone. Attualmente questo tipo di servizio non è mai stato implementato: l’unica via per poter ottenere un servizio simile è quello di utilizzare pagine su altri tipi di social network oppure effettuare contatti telefonici fra conoscenti.
Resumo:
La tesi analizza la problematica della mancanza di redattori di diagrammi E-R in grado di realizzare schemi relazionali basati sulla notazione di Chen e sulla notazione estesa. In particolare, dopo un'analisi di pregi e difetti sullo stato dell'arte dei principali strumenti già esistenti (in grado di realizzare diagrammi E-R con altre notazioni), si passa a descrivere nel dettaglio l'applicativo SharpER Diagram Editor, un progetto ex novo che consente la redazione di diagrammi E-R in notazione estesa. Vengono accuratamente descritte le varie fasi che hanno portato alla realizzazione del progetto, dall'analisi dei requisiti e la modellazione, all'implementazione e al test. Per finire vengono forniti interessanti spunti per poter proseguire il lavoro iniziato, il che è reso possibile dalla licenza con cui il software viene rilasciato ossia GPLv3.
Resumo:
Nel presente elaborato viene descritta l’attività di tesi da me svolta presso il Laboratorio di Tecnologia Medica presente all’interno dell’Istituto Ortopedico Rizzoli. Nel laboratorio è in corso di svolgimento uno studio mirato a correlare le proprietà meccaniche del tessuto osseo corticale con la qualità e la distribuzione delle fibre di collagene per verificare se tali caratteristiche siano influenzate dal tipo di sollecitazione a cui il tessuto si trova sottoposto fisiologicamente. All’interno di tale studio si inserisce il mio lavoro il cui obiettivo è di progettare ed implementare un protocollo per la caratterizzazione meccanica del tessuto osseo corticale. Il distretto anatomico studiato è il femore prossimale. Infatti è dimostrato come in tale zona il tessuto osseo corticale risulti sollecitato in vivo a compressione in posizione mediale e a trazione in posizione laterale. Per eseguire lo studio è stato deciso di utilizzare una prova di trazione semplice in modo da poter ricavare il contributo del collagene, su provini orientati longitudinalmente all’asse del femore. Nella prima parte del lavoro ho perciò progettato l’esperimento stabilendo la geometria dei provini e la procedura sperimentale necessaria alla loro estrazione. Successivamente ho progettato e realizzato il sistema di applicazione del carico coerentemente con il posizionamento dei sistemi di misura. In particolare per la misura delle deformazioni imposte al provino ho utilizzato sia un sistema meccanico che un sistema ottico basato sulla correlazione digitale di immagine. Quest’ultimo sistema permette di elaborare una mappa degli spostamenti e delle deformazioni su tutta la superficie del provino visibile dalle telecamere, purchè adeguatamente preparata per la misura con sistema ottico. La preparazione prevede la realizzazione di un pattern stocastico ad elevato contrasto sulla superficie. L’analisi dei risultati, oltre a verificare il corretto svolgimento della prova, ha evidenziato come siano presenti differenze significative tra le proprietà meccaniche di ciascun soggetto ad eccezione del tasso di deformazione necessario per imporre al provino una deformazione permanente pari allo 0.2%. Infatti tale parametro risulta invariante. È stato rilevato inoltre come non siano presenti differenze significative tra le proprietà meccaniche del tessuto estratto in zone differenti nonostante sia sollecitato fisiologicamente principalmente con sollecitazioni differenti.
Resumo:
Negli ultimi anni si è verificato un enorme cambiamento per quanto riguarda le tecnologie utilizzate nello sviluppo di applicazioni, spostandosi sempre verso soluzioni più innovative. In particolare l'utente, diventando sempre più esperto, si ritrova ad essere sempre più esigente. Qui nasce la necessità di modernizzare la gestione degli appuntamenti con la clientela da parte delle attività commerciali tramite l'uso di uno scheduler online. Lo scopo di questo documento è quello di illustrare come è stato realizzato un prototipo di questo sistema, partendo dalle interviste ai committenti e analisi dei relativi problemi, per arrivare poi alla sua realizzazione, utilizzando tecnologie e design innovativi e di ultima generazione.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
Vengono illustrati i principali aspetti tecnici per la realizzazione di un sito e-commerce ed il suo funzionamento
Resumo:
Realizzazione di una libreria che permetta ad applicazioni di diverso tipo e distribuite sulla rete di scambiarsi messaggi con lo scopo di estendere le funzionalità di ciascuna applicazione con quelle fornite dalle altre applicazioni e di rendere virtuali le risorse aziendali, permettendo in questo modo alla logica di business del sistema sanitario di essere sviluppata e gestita indipendentemente dall’infrastruttura della rete e senza apportare modifiche alle applicazioni già sviluppate.
Resumo:
In questo elaborato sono stati analizzati i dati raccolti nel Corso-Laboratorio “L’esperimento più bello”, realizzato nel periodo marzo-aprile 2013 nell'ambito delle attività del Piano Lauree Scientifiche del Dipartimento di Fisica e Astronomia di Bologna. Il Corso, frequentato da studenti volontari del quinto anno di Liceo Scientifico, era finalizzato ad introdurre concetti di Fisica Quantistica seguendo, come filo conduttore, l’esperimento di interferenza con elettroni singoli e le sue varianti. I principali dati considerati e analizzati riguardano le risposte degli studenti a questionari proposti a fine Corso per avere un riscontro sul tipo di coinvolgimento e sul livello di comprensione raggiunto. L’analisi è stata condotta con l’obiettivo specifico di valutare come gli studenti si siano posti di fronte ad alcuni approfondimenti formali sviluppati per interpretare gli esperimenti e come abbiano colto i concetti trattati, ritenuti necessari per entrare nel “nuovo modo di vedere il mondo della quantistica”: il concetto di stato, sovrapposizione, ampiezza di probabilità, entanglement.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.