1000 resultados para Localizzazione Stima Angolo di Arrivo Elaborazione Audio MATLAB Simulazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questo elaborato è quello di implementare un Modem digitale che è basato su una modulazione Orthogonal Frequency Division Multiplexing (OFDM) ed è formato da due tipi di dispositivi radio differenti, i quali sono molto utili, poiché si possono utilizzare in diversi scopi senza doverne modificare l’hardware ma solo cambiando la parte software perché sono programmabili. I due dispositivi sono i seguenti: • Analog Device Adalm-Pluto: dispositivo in grado sia di trasmettere che di ricevere. Lo utilizzeremo solamente per trasmettere il segnale. • Noeelec NE-SDR: dispositivo in grado solo di ricevere. Lo utilizzeremo quindi solamente per ricevere il segnale. Il tipo di modulazione da noi utilizzata per trasmettere il segnale è come detto in precedenza la modulazione OFDM. Essa è molto efficiente nell’occupazione della banda ed applica la trasmissione di un segnale su più portanti affiancate nel dominio delle frequenze. Questo significa che ogni portante che compone il segnale completo si trova ad una frequenza multipla della principale f0. Inoltre il vantaggio di questa modulazione sta nel fatto di sapere che l’informazione è contenuta nel segnale passa-basso inviluppo complesso rappresentativo i(t) e per questo motivo vedremo, nel corso dell’elaborato, come lo schema di trasmissione e ricezione sia molto semplificato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel campo della trasmissione di segnali alfanumerici è cresciuto sempre di più l’interesse riguardo alla trasmissione di segnali caratterizzati da più sottoportanti affiancate nel dominio della frequenza mediante modulazione multiportante (MC, multicarrier modulation). Si è dimostrato che OFDM è un’effettiva tecnica per "combattere" il problema del multipath-fading nei canali wirless. Il multipath-fading è una forma di distorsione di un segnale che giunge a destinazione sotto forma di un certo numero di repliche, sfasate nel tempo, originate dai vari percorsi che il segnale stesso può aver seguito durante la sua propagazione e sommantesi tra loro in ricezione; ogni replica inoltre, sarà soggetta ad un’attenuazione in generale diversa da quella subita dalle altre repliche. Ciò che si vuole realizzare è un sistema di trasmissione e ricezione dati alfanumerico tramite la modulazione OFDM tramite l’utilizzo di due dispositivi SDR. In particolare per la trasmissione del segnale viene utilizzato il dispositivo ADALM-PLUTO, ed è lasciata libera scelta nel trasmettere qualsiasi tipo di segnale alfanumerico, ovvero il numero di simboli OFDM può variare a discrezione dell’utente. Per la ricezione del segnale inviato è stato impiegato il dispositivo Noolec NESDR, e l’utente, qui, sarà invece obbligato a inserire il numero di simboli OFDM da dover ricevere per avere così una corretta decodifica del segnale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questa Tesi di Laurea è quello di dimostrare il Teorema di Connettività per un sistema di Hörmander di campi vettoriali, il quale ci fornisce una condizione sufficiente alla connessione di un aperto di R^N tramite curve integrali a tratti dei campi vettoriali stessi e dei loro opposti, e presentarne alcune applicazioni. Nel primo Capitolo daremo i prerequisiti necessari alla trattazione degli altri tre, con particolare attenzione ad un Lemma che mette in relazione le curve integrali del commutatore di m campi vettoriali con la composizione di un opportuno numero di mappe flusso dei campi vettoriali che costituiscono il commutatore. Il secondo Capitolo è interamente dedicato alla dimostrazione del Teorema di Connettività e all'analisi della definizione delle curve subunitarie in un aperto rispetto ad una famiglia di campi vettoriali X, dette curve X-subunitarie. Nel terzo Capitolo forniremo una introduzione alla distanza di Carnot-Carathéodory, detta anche distanza di X-controllo, arrivando a dimostrare il notevolissimo Teorema di Chow-Rashewskii, il quale ci fornisce, sotto le ipotesi del Teorema di Connettività, una stima tra la metrica Euclidea e la distanza di X-controllo, mediante due disuguaglianze. Queste ultime implicano anche una equivalenza tra la topologia indotta dalla distanza di X-controllo e la topologia Euclidea. Nel quarto e ultimo Capitolo, indagheremo gli insiemi di propagazione tramite curve integrali dei campi vettoriali in X e tramite curve X-subunitarie. Utilizzando la definizione di invarianza di un insieme rispetto ad un campo vettoriale e avvalendosi del Teorema di Nagumo-Bony, dimostreremo che: la chiusura dei punti raggiungibili, partendo da un punto P in un aperto fissato, tramite curve integrali a tratti dei campi vettoriali in X e dei loro opposti, è uguale alla chiusura dei punti raggiungibili, sempre partendo da P, tramite un particolare sottoinsieme di curve X-subunitarie C^1 a tratti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondidisponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondidi una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il complesso che ospita la Pinacoteca Nazionale di Bologna e l’Accademia delle Belle Arti si colloca nel quartiere universitario bolognese, tra via delle Belle Arti e via Irnerio. Nato dall’aggregazione di corpi settecenteschi che si alternano a spazi chiostrali, l’edificio oggi ospita anche la Direzione Regionale Musei Emilia-Romagna e il “Settore Archeologia” della Soprintendenza Archeologia, Belle Arti e Paesaggio per la città metropolitana di Bologna e le province di Modena, Reggio Emilia e Ferrara. La Pinacoteca nasce dall’esigenza di raccogliere una cospicua produzione di dipinti del patrimonio artistico bolognese, per garantirne la sopravvivenza; si scelse di collocarla in un edificio conventuale dei padri gesuiti dopo le soppressioni degli ordini religiosi. L’impianto originario di edificio a corte a pianta quadrata non fu mai alterato, ma adattato a percorso espositivo nel corso dei secoli, ed è oggi frutto di numerose sopraelevazioni e ampliamenti volumetrici. È possibile individuare tre unità strutturali: la parte storica con ex convento, ex chiesa di Sant’Ignazio ed il rinascimentale Palazzo Ancarano; sul retro, i due corpi più recenti, l’ala Collamarini e l’ala ovest. Le tre unità appartengono a epoche diverse e ognuna rispecchia le soluzioni tecnologiche del proprio tempo: muratura di mattoni e solai a volte del 1700, struttura “mista” di inizio ‘900 e telaio in cemento armato degli anni ’60. Finalità della tesi è quella di effettuare una valutazione della vulnerabilità sismica globale della porzione storica mediante modelli semplificati, accompagnata da una valutazione dei cinematismi locali ritenuti attivabili a causa del sisma. La prima modalità, a livello globale, fornisce una stima della risposta sismica sottoforma di indicatore di vulnerabilità. L’analisi cinematica, a livello locale, pone le basi per indirizzare il progetto di miglioramento strutturale con interventi locali poco invasivi nell’ottica del minimo impatto sul manufatto storico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo progetto di Tesi si propone come obiettivo la valutazione della convenienza economica ed ambientale di un Gruppo di Autoconsumo Collettivo da fonti rinnovabili. Per fare ciò, è stata necessaria un’attenta fase di analisi delle normative italiane ed europee attualmente in vigore, in modo da stabilire i requisiti necessari per accedere a questo tipo di configurazione. Successivamente si è iniziata una simulazione tecnico-economica del progetto. Inizialmente è stata proposta l’installazione di un impianto fotovoltaico di potenza 48 kWp e ne è stata calcolata la produzione media annua; in secondo luogo, grazie ai dati forniti dagli attori, è stato possibile effettuare una stima dei consumi annuali di tutto il Gruppo. Infine, sono stati combinati i dati di produzione e consumo per ricavare le quote di autoconsumo e di energia condivisa. Per concludere, tramite i dati estrapolati in precedenza, è stata effettuata una analisi economica dell’investimento, dimostrandone la convenienza, a cui è stata aggiunta una analisi di sensitività per dimostrare la resilienza del progetto verso il cambiamento di alcune ipotesi iniziali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni si sono riscontrati in tutto il territorio Nazionale un consistente aumento di eventi incendiari negli impianti di stoccaggio e smaltimento rifiuti. In questo elaborato troviamo una prima panoramica sulle normative nazionali riguardanti la prevenzione incendi, le emergenze e l’ambiente. Successivamente si focalizza l’attenzione sulle Linee Guida dei piani di Emergenza Esterni .La parte delle linee guida relativa al “Metodo ad indici per la classificazione del rischio incendio negli impianti di stoccaggio e trattamento rifiuti” , è stata elaborata a partire dalla metodologia per la gestione del rischio di incendio negli impianti di deposito di rifiuti. Le linee guida a cui ci si riferisce hanno ritenuto di considerare l'incendio quale scenario di riferimento per la valutazione del rischio dell'impianto, anche a seguito della complessità e variabilità delle caratteristiche dei rifiuti che comportano una differente pericolosità degli effluenti. La procedura sviluppata prevede un metodo di valutazione del rischio ad indici che consiste nell’attribuire determinati punteggi a fattori di rischio e misure di prevenzione e protezione presenti nell’impianto e considerando i pericoli per la salute umana e l’ambiente circostante. Il metodo ha l’obiettivo di semplificare e unificare i criteri di classificazione dei livelli di rischio in tali impianti, in base al livello viene quindi stabilita una certa distanza di attenzione su cui poi si baseranno i Piani di Emergenza Esterni. Il metodo ad indici esposto nelle Linee Guida è stato quindi testato su un caso studio. I risultati ottenuti da tale elaborazione sono stati poi integrati e contestualizzati con l’ausilio del software QGIS attraverso il quale si sono ricavate mappe raffiguranti i vari impianti e le loro rispettive distanze di attenzione, le quali saranno conferite alle autorità competenti per lo sviluppo di efficienti Piani di Emergenza Esterni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi si occupa di identificare le possibili ubicazioni di hub logistici distributivi del gruppo aziendale FAAC Technologies e di valutare le alternative da un duplice punto di vista: economico e sostenibile. Per raggiungere il suddetto risultato è stata dapprima studiata l’attuale configurazione logistica nel centro Europa. Unendo le caratteristiche dell’azienda con le ricerche presenti in letteratura scientifica riguardo la risoluzione di Hub Location Problem, è stato implementato un modello matematico che ottimizzi economicamente il posizionamento degli stabilimenti secondo diversi scenari organizzativi. Una seconda versione del modello valuta il rispetto dei tempi di transito da parte delle soluzioni ottenute. Infine, gli stessi scenari sono stati comparati tra loro in base all’impatto ambientale in termini di CO2 emessa nell’atmosfera per via del trasporto. Sono state studiate strategie riguardanti la logistica distributiva sostenibile e sono state proposte soluzioni in grado di mitigare gli effetti dovuti all’immissione di anidride carbonica. Gli strumenti digitali utilizzati nella presente ricerca sono stati: Excel per visualizzare ed elaborare i dati aziendali; Flourish per visualizzare i dati in mappe geografiche; MATLAB per trasformare le tariffe di trasporto in equazioni matematiche; Gurobi Optimizer per ottenere le soluzioni date dall’ottimizzazione del modello matematico, programmando attraverso il linguaggio AMPL. I risultati più significativi dimostrano la possibilità di raggiungere un risparmio economico del 16,7% dei costi logistici nel caso di ubicazione di un solo hub e del 9,8% nel caso di due hub. Dal punto di vista ambientale le medesime soluzioni comportano un aumento delle emissioni di CO2 rispettivamente del 45% e 8%. L’azzeramento di queste emissioni aggiuntive è possibile e a tal fine sarebbe necessario sostenere extra costi, i quali farebbero convergere entrambe gli scenari ad un risparmio comune pari all’8,2%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tematica al centro della tesi è la valutazione della stabilità del versante roccioso in cui si colloca la tomba Lattanzi, facente parte della necropoli Norchia (VT), e la proposta preliminare di interventi a basso impatto per la conservazione del sito. Le attività svolte sono riportate di seguito: - inquadramento geografico, storico ed archeologico della necropoli di Norchia e della tomba Lattanzi; - inquadramento geologico e geomorfologico sviluppato consultando la carta geologica d’Italia in scala 1:50.000 e carte tematiche riguardanti la zona di interesse, comprese quelle del progetto IFFI (Inventario dei Fenomeni Franosi in Italia); - inquadramento sismico dell’area, condotto a partire dai dati forniti dall’INGV per il comune di Viterbo; - inquadramento meteo-climatico del comune di Viterbo; - inquadramento topografico attraverso nuvola di punti generata da rilievo laser scanner; - caratterizzazione fisica e meccanica del materiale roccioso tramite prove di laboratorio; - caratterizzazione delle discontinuità tramite rilievi in situ; - classificazione tecnica dell’ammasso; - creazione di un modello geotecnico del sottosuolo; - analisi cinematica effettuata tramite il programma Dips®; - analisi con il metodo dell’equilibrio limite e analisi numerica effettuata tramite il programma Plaxis®; - elaborazione dei risultati ottenuti e proposte di intervento quali: Intervento con ancoraggi passivi e sottofondazione al piede della tomba con una muratura in conci di tufo. Le analisi svolte, seppur semplificate, consentono di definire i possibili fenomeni di instabilità del versante nelle condizioni attuali e, in una ottica di conservazione preventiva, di effettuare scelte di gestione del sito che evitino interventi impattanti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In epoca contemporanea, la tecnologia ha subito una diffusione massiva e ha pervaso ogni ambito della vita dell’uomo, che sia esso scolastico, lavorativo, o ludico, cambiandone così radicalmente lo stile di vita sotto tutti i punti di vista. Sono infatti numerosissimi gli strumenti informatici che ad oggi supportano l'esercizio della maggior parte delle professioni, e che risultano peraltro ogni giorno più accurati e potenti: questo è il caso di Nutribook, un software gestionale in-cloud pensato per assistere i professionisti del mondo della nutrizione (Biologi Nutrizionisti, Dietologi, Dietisti) nelle attività quotidiane di visita dei pazienti e nell’organizzazione della propria agenda. Nell'ottica di poter offrire agli utenti un servizio sempre più esteso, il presente elaborato riporta il progetto di tesi svolto presso Deasoft s.r.l., azienda proprietaria di Nutribook, volto ad integrare tale software con un modulo dedicato all’attività di elaborazione di diete e piani alimentari. L'obiettivo principale del progetto presentato nell’elaborato risiede non solo nell'aspetto realizzativo del prodotto, ma anche nel tentativo di renderne la fruizione da parte dell'utente target il più possibile semplice, intuitiva e soddisfacente, mediante tecniche di potenziamento della User Experience. Il tirocinio per la redazione della presente tesi, nato a partire dall’esperienza di tirocinio curricolare, ha previsto come attività principali la conduzione di studi approfonditi in materia di User Experience, la partecipazione alla fase di analisi del dominio e dei requisiti e, infine, la collaborazione al design delle interfacce da realizzare mediante prototipi.