316 resultados para Bioingegneria, Modelli matematici, Volume del liquido interstiziale


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo volume di tesi ha l'obiettivo di descrivere l'intero processo di progettazione, sviluppo e rilascio di un'applicazione mobile, coinvolgendo anche gli end-user nella fase finale di valutazione. In particolare, il volume di tesi si sviluppa su quattro capitoli che descrivono 1) l'analisi dei requisiti, seguendo un approccio AGILE, 2) l'analisi del ciclo di vita del prodotto (inclusi business model e business plan), 3) l'architettura del sistema, e, infine, 4) la valutazione dell’usabilità e della UX. L'applicazione usata come caso di studio è "LetsBox!", un'applicazione mobile della categoria puzzle game, sviluppata sfruttando il framework di sviluppo di app ibride IONIC 5, con l’obiettivo di creare un gioco che coinvolgesse il giocatore tanto da farlo giocare nei suoi momenti di svago e indurlo a sfidare i record esistenti ma, nello stesso tempo creare un gioco originale e non esistente sul mercato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, la ricerca scientifica nell’ambito delle neuroscienze cognitive ha sempre più focalizzato il suo interesse nei confronti dei ritmi cerebrali, ovvero oscillazioni neurali registrabili attraverso tecniche di elettrocenfalografia. In questo lavoro si è investigato il ruolo del ritmo alpha (7-12 Hz) e, in seconda misura, del ritmo gamma (> 30 Hz) rispetto all’attenzione spaziale selettiva. In particolare, partendo da modelli di massa neurale esistenti, si è riusciti a sviluppare un nuovo modello che riesce a simulare un compito di attenzione spaziale sulla base dell’inibition timing hypothesis, che assegna alle onde alpha un ruolo essenziale al fine di trascurare gli stimoli non rilevanti rispetto al compito da svolgere. Successivamente, è stato indagato l’effetto sul modello di alcune degenerazioni neurali tipiche di una delle patologie maggiormente invalidanti, la schizofrenia. Nello specifico, sulla base di evidenze sperimentali che riportano un calo della potenza delle onde gamma nei soggetti schizofrenici a causa della degenerazione degli interneuroni inibitori con dinamica sinaptica veloce, si è riusciti a simulare la progressiva alterazione neurale indotta dalla schizofrenia in termini di incapacità di inibire gli stimoli interferenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il problema dello smaltimento delle plastiche tradizionali di origine petrolchimica ha stimolato l’interesse verso i materiali plastici bio-based biodegradabili come i PHB che, al contrario, possono essere degradati facilmente e in tempi rapidi dai batteri naturalmente presenti nell’ecosistema. Uno dei principali campi di applicazione dei PHA è quello del food packaging. L’uso di imballaggi attivi dove un antiossidante, disperso nella matrice polimerica, migra dall’imballaggio al cibo può essere utile per aumentare la shelf life degli alimenti ma anche per introdurre con la dieta fonti antiossidanti esogene che neutralizzano gli effetti dannosi dei radicali liberi, normalmente prodotti dai processi biologici. I tannini sono antiossidanti naturali che agiscono da riducenti, donano un idrogeno ai radicali liberi stabilizzandoli (free radical scavengers). Si può quindi usare il tannino estratto dal legno come bioadditivo per matrici biopolimeriche (PHB). Recuperando questo prodotto di scarto dell’industria agro-alimentare, si riesce ad abbassare il costo del prodotto finale che risulterà inoltre 100% biodegradabile e con capacità antiossidanti, quindi particolarmente adatto per il food packaging monouso. La bioplastica finale è stata ottenuta “melt mixando” il tannino in polvere, il PHB in pellets e il catalizzatore Ti(OBu)4 liquido in un mescolatore interno Brabender. Sono stati creati 4 campioni a percentuale crescente di tannino e catalizzatore. Sono state effettuate: - Prove di estrazione in acqua per capire quanto tannino non si fosse legato alla matrice biopolimerica. - Analisi FTIR per capire se fosse avvenuto un legame di transesterificazione tra matrice e tannino usando il Ti(OBu)4. - Prove di radical scavenging activity attraverso la spettroscopia uv-visibile per quantificare il potere antiossidante del tannino. - Analisi GPC, DSC e prove di trazione per confrontare le proprietà meccaniche e termiche dei campioni con quelle del PHB puro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La città di Rimini negli anni della Ricostruzione, a causa delle ampie distruzioni e alla crescita del turismo, è stata sottoposta ad un processo di compromissione dell’identità storica e d’impoverimento del patrimonio architettonico esistente. La tesi verte nell’elaborazione di una proposta progettuale di conversione e rifunzionalizzazione del Mercato Coperto di Rimini, appartenente al centro storico della città, in cui diverse stratificazioni del palinsesto architettonico sono parzialmente sopravvissute all’opera di speculazione edilizia. Col fine di comprendere le diverse stratificazioni presenti all’interno dell’area d’intervento, si è svolta un’analisi storica, individuando come la frammentazione dell’attuale contesto sia debitrice alla mancanza di un piano organico di ricostruzione. Indentificando l’edificio del Mercato Coperto come il fabbricato con le maggiori problematiche all’interno dell’area, si è quindi proceduto ad analizzare il tema architettonico del mercato coperto, approfondendo lo sviluppo dei diversi modelli storici ed analizzando come lo scenario attuale sia in parte debitore al processo di specializzazione che ha coinvolto questo tipo di spazi. La proposta progettuale verte sul superamento dell’attuale modello di riferimento adottato dal Mercato Coperto, che rifiuta il dialogo con il contesto circostante, acuendo le problematiche intrinseche di esso. Gli spazi interni sono stati convertiti grazie all’inserimento di nuovi volumi, capaci di ospitare un mercato coperto, una biblioteca e una piazza coperta, rielaborando in ottica moderna la coesistenza di funzioni sociali e commerciali tipiche dei modelli di riferimento più antichi. All’esterno l’edificio è stato dotato di spazi di mediazione con il contesto grazie alla trasformazione dell’involucro edilizio e all’inserimento velari mobili che definiscono una nuova piazza a disposizione della comunità e un nuovo ingresso, capace di risolvere la tensione con il patrimonio storico preesistente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si vuole definire una misura sullo spazio R^n, cioè la misura di Hausdorff, che ci permetta di assegnare le nozioni di "lunghezza", "area", "volume" ad opportuni sottoinsiemi di R^n. La definizione della misura di Hausdorff sarà basata sulla richiesta che il ricoprimento segua la geometria locale dell'insieme da misurare. In termini matematici, questa richiesta si traduce nella scelta di ricoprimenti di diametro "piccolo". Si darà risalto al fatto che le due misure coincidano sui Boreliani di R^n e si estenderanno le relazioni tra le due misure su R^n ad un generico spazio di Banach. Nel primo capitolo, si danno delle nozioni basilari di teoria della misura, in particolare definizioni e proprietà che valgono per le misure di Hausdorff. Nel secondo capitolo, si definiscono le misure di Hausdorff, si dimostra che sono misure Borel-regolari, si vedono alcune proprietà di base legate a trasformazioni insiemistiche, si dà la definizione di dimensione di Hausdorff di un insieme e si mostrano esempi di insiemi "non regolari", cioè la cui dimensione non è un numero naturale. Nel terzo capitolo, si dimostra il Teorema di Ricoprimento di Vitali, fondato sul principio di massimalità di Hausdorff. Nel quarto capitolo, si dimostra che per ogni insieme Boreliano di R^n, la misura di Lebesgue e la misura di Hausdorff n-dimensionali coincidono. A tale scopo, si fa uso del Teorema del Ricoprimento di Vitali e della disuguaglianza isodiametrica, che verrà a sua volta dimostrata utilizzando la tecnica di simmetrizzazione di Steiner. Infine, nel quinto capitolo, si osserva che molte delle definizioni e proprietà viste per le misure di Hausdorff in R^n sono generalizzabili al contesto degli spazi metrici e si analizza il legame tra la misura di Hausdorff e la misura di Lebesgue nel caso di uno spazio di Banach n-dimensionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggigiorno, il termine Digital Twin è ampiamente diffuso. Questo concetto si riferisce a un paradigma utilizzato per la prima volta nel 1970, in una missione spaziale statunitense. Un Digital Twin è un gemello digitale, un modello che simula e raccoglie i dati di un oggetto o essere vivente del mondo reale. I Digital Twin sono sviluppati in molti settori e aziende. Tra queste troviamo Fameccanica, la quale ha costruito dei modelli digitali dei propri macchinari per migliorare la formazione dei manutentori e la produzione, Chevron che ha ridotto i costi di manutenzione, General Elettric che associa a ogni turbina venduta un Digital Twin per mantenerla controllata grazie a dei sensori posti sulla turbina stessa. Risulta importante utilizzare i Digital Twin in ambito medico per tracciare la salute del paziente, simulare eventuali interventi e gestire gli ospedali. In particolare, le strutture ospedaliere dell’Emilia Romagna non sono ottimizzate dal punto di vista economico. Infatti, la sala operatoria rappresenta la principale spesa che AUSL Romagna deve affrontare ma, attualmente, l’organizzazione degli interventi non è efficiente. Pertanto, in seguito a problemi sollevati dai referenti di AUSL Romagna, è stato deciso di realizzare un progetto per la tesi riguardante questo ambito. Per risolvere i problemi riscontrati si realizzerà un prototipo di un Digital Twin delle sale operatorie per poter minimizzare i costi. Grazie alla raccolta, in real-time, dei dati memorizzati nel gemello digitale, si possono pianificare al meglio gli interventi in base alla disponibilità delle sale operatorie. Il progetto assume dimensioni considerevoli per questo motivo è stato suddiviso in tre moduli: una componente che si occupa di standardizzare i dati, un Digital Twin che mantiene i dati relativi allo stato attuale delle sale operatorie e un’interfaccia utente che si occupa di visualizzare i dati ai medici.