999 resultados para Donatello i.e. Donato di Niccolò di Betto Bardi, ca. 1386-1466.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si suddivide in tre capitoli. Nel primo capitolo viene presentata una prima dimostrazione della disuguaglianza di Sobolev. La prova del Capitolo 1 si basa in modo essenziale sul fatto che R^ n è prodotto cartesiano di R per se stesso n volte. Nel Capitolo 2 si introducono i cosiddetti potenziali di Riesz Iα, con 0 < α < n che sono una tra le più importanti classi di operatori di convoluzione. Vediamo come sia possibile legare la teoria di questi operatori di tipo integrale frazionario a formule di rappresentazione . Il teorema principale di questo capitolo è il teorema di Hardy-Littlewood-Sobolev: si forniscono stime in norma L^p per tali operatori. La prova di tale teorema che qui abbiamo fornito segue l’idea di dimostrazione di Hedberg ed è basata sull’uso della disuguaglianza di Holder e sulle stime per la funzione massimale di Hardy-Littlewood. Le stime per il nucleo di Riesz I_1 sono state utilizzate nel Capitolo 3 per dimostrare le disuguaglianze di Sobolev e Poincaré nel caso p ∈]1, n[. Il caso p = 1 viene trattato a parte in quanto, nel caso p = 1, il teorema di Hardy-Littlewood- Sobolev fornisce solo una stima di tipo debole per il nucleo di Riesz I_1. Questo tipo di approccio, mediante le formule di rappresentazione, ha il vantaggio che può essere adattato a contesti geometrici diversi da quello Euclideo e a misure diverse della misura di Lebesgue. Infine, sempre nel Capitolo 3 abbiamo dato un breve cenno del collegamento che si ha tra la disuguaglianza di Sobolev nel caso p=1 e il problema isoperimetrico in R^n.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi aveva l’obiettivo di valutare il potenziale tecnologico e bioprotettivo di ceppi di batteri lattici (LAB) isolati da salami tradizionali spagnoli. In particolare due ceppi (Lactiplantibacillus paraplantarum BPF2 e Pediococcus acidilactici ST6) che avevano dimostrato buone performance in vitro sono stati utilizzati, da soli o in miscela, come colture starter per la produzione salami e i prodotti ottenuti sono stati confrontati con un controllo a fermentazione spontanea ed un prodotto addizionato di uno starter commerciale contenente LAB e stafilococchi. Per quanto riguarda gli aspetti tecnologici, il pH ha mostrato cinetiche di acidificazione simili in tutti i prodotti, mentre il calo peso era più lento nel controllo. A livello microbiologico, i campioni addizionati di colture starter hanno mostrato carichi di LAB molto più elevati già al tempo zero, senza differenze significative in relazione al ceppo utilizzato. Enterobatteri e lieviti hanno mostrato andamenti simili in tutti i campioni. L’utilizzo di colture starter ha invece avuto un impatto rilevante sul contenuto di ammine biogene, con valori totali doppi nel campione ottenuto con fermentazione spontanea, e sul profilo in metaboliti volatili (soprattutto a carico di composti derivanti dall’acido piruvico). L’aspetto più rilevante di questa tesi è stato ottenuto nel challenge test, utilizzando come microrganismo target Listeria monocytogenes (inoculo 3 log ufc/g): infatti, nel controllo e nei campioni contenenti starter commerciale, L. monocytogenes era in grado di crescere fino a valori superiori a 5.7 log ufc/g, mentre i ceppi BPF2 e ST6 hanno determinato una riduzione del suo carico cellulare (2.4 log ufc/g). Questo conferma quindi le grandi potenzialità anti-listeria dei due ceppi testati e la loro attitudine ad essere utilizzati, oltre che come starter per i salami, anche come colture bioprotettive con lo specifico compito di contrastare lo sviluppo di L. monocytogenes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ABSTRACT Il lavoro svolto in questa tesi è stato quello di produrre dei pani andando a sostituire nella formulazione l’acqua con delle puree vegetali di mirtilli o peperoni, utilizzate fresche o fermentate. La fermentazione è stata condotta tramite due ceppi di batteri lattici (Leuconostoc mesenteroides L223 e Lactiplantibacillus plantarum L88) e due di lieviti (Saccharomyces cerevisiae Y267 e Hanseniaspora uvarum Y309), che erano stati precedentemente isolati dalle puree di mirtilli e peperoni fermentate spontaneamente, e che presentavano le migliori performances. Gli obiettivi di questa tesi erano di arricchire il profilo sensoriale e il contenuto in sostanze funzionali (ad esempio polifenoli e vitamine, di cui le matrici utilizzate sono particolarmente ricche) del pane. I prodotti ottenuti sono stati analizzati per monitorare gli aspetti chimico-fisici (pH, lievitazione dell’impasto) e il profilo aromatico. Sui diversi pani ottenuti è stato infine eseguito un test di assaggio per valutare l’accettabilità del prodotto ed una sua possibile introduzione nel mercato. I risultati delle analisi hanno mostrato un rilevante sviluppo di sostanze volatili nelle puree vegetali fermentate e queste molecole, in parte, sono state trasferite nel pane andando a modificare il suo profilo aromatico. L’aggiunta di puree fermentate ha quindi fortemente caratterizzato gli impasti e i pani ottenuti, che presentavano un profilo aromatico più complesso rispetto ai pani ottenuti con le sole puree vegetali non fermentate. Questo aspetto positivo è stato confermato dal test di assaggio, poiché i pani addizionati di puree fermentate (soprattutto mirtillo) hanno ottenuti punteggi positivi in termini di dolcezza, acidità e fruttato. Questo conferma le grandi potenzialità di questi pani, che oltre a differenziare i prodotti presenti sul mercato, possono andare a valorizzare matrici vegetali sovra-mature, e destinate ad essere scartate, o parti di vegetali non utilizzate nelle produzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilizzo del marketing non convenzionale, o unconventional marketing in inglese, è stato utilizzato in tante campagne pubblicitarie, che vanno dall'azienda sportiva della Nike, alle agenzie legate agli aiuti umanitari come l'UNICEF. Ma questo nuovo modo di sponsorizzare i prodotti è arrivato anche nel mondo dell'audiovisivo. Prima nel cinema, con The Blair Witch Project, e successivamente nella televisione. Ma ora, con il mondo che si sta sempre più digitalizzando, e con l'arrivo delle piattaforme streaming, questa tecnica basata sull'avvicinamento dello spettatore al prodotto multimediale nella maniera più creativa possibile è diventata la chiave per vincere l'attenzione del pubblico. Questa tesi raccoglie i maggiori esempi di campagne pubblicitarie di prodotti seriali originali appartenenti a tre delle maggiori piattaforme streaming (Netflix, Disney+ e Amazon Prime Video) che hanno utilizzato l'Unconventional Marketing nelle sue varie forme e sfaccettature, per arrivare a risvegliare la curiosità del maggior numero di persone possibili e consolidare la fedeltà degli spettatori già nel mezzo di questo percorso seriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Disturbo Evitante/Restrittivo dell’Assunzione di Cibo (ARFID) è un Disturbo della Nutrizione e dell’Alimentazione con tre possibili sottotipi, accomunati dalla persistente insoddisfazione di fabbisogni nutrizionali e/o energetici. Crescenti sono le prove di sovrapposizione con il Disturbo dello Spettro Autistico (ASD), per comuni difficoltà alimentari e sottostanti fattori di sensorialità e rigidità. Lo studio ha caratterizzato un campione di affetti da ARFID e da ASD in età evolutiva; i due gruppi sono stati confrontati per storia clinico-terapeutica e profili indagati ai test: BAMBI-R (Brief Autism Mealtime Behavior Inventory-Revised) per i comportamenti disfunzionali al pasto, SSP-2 (Short Sensory Profile-2) per le alterazioni della sensorialità e RBS-R (Repetitive Behavior Scale-Revised) per i comportamenti stereotipati e ristretti. Il gruppo con ARFID è stato inoltre analizzato per variabili antropometrico-nutrizionali e sottotipi clinici. I soggetti con ARFID presentavano età superiore e più frequenti tratti ansioso-fobici in comorbilità. Ai test sopracitati, gli affetti da ARFID e da ASD convergevano per numerosi aspetti; tuttavia, le difficoltà alimentari (in particolare, la selettività) prevalevano tra i primi, mentre maggiori livelli di sensibilità sensoriale e di comportamenti ristretti, stereotipati e compulsivi caratterizzavano i secondi. Tra i sottotipi clinici di ARFID, spesso co-occorrenti, prevaleva quello selettivo; i tre quadri erano perlopiù comparabili per le variabili indagate e non differivano per aspetti alimentari, comportamentali o sensoriali. In conclusione, gli affetti da ARFID e da ASD si distinguono per alcune peculiari caratteristiche ma collidono per numerose altre. Approfondire lo studio dei fattori implicati nelle difficoltà alimentari condivise, oltre che caratterizzare i fenotipi del DNA in campioni più numerosi, saranno obiettivi da perseguire per un’implementazione di interventi medico-nutrizionali sempre più specifici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studi recenti hanno evidenziato cambiamenti nei ritmi alpha (8-12 Hz) e theta (4-8 Hz) in vari processi modulatori top-down e di controllo cognitivo come la memoria di lavoro (WM, working memory) e la soppressione di distrattori. I compiti di WM richiedono attenzione interna sostenuta per dare priorità alle informazioni rilevanti a discapito di quelle interferenti che distraggono dall’obiettivo. I meccanismi di attenzione in tali compiti sono associati ad aumento di potenza alpha, che riflette la funzione inibitoria di tale ritmo, in regioni che elaborano informazioni distraenti, e ad aumento di potenza theta, soprattutto in regioni frontali, che riflette funzioni di controllo cognitivo per raggiungere l’obiettivo pur in presenza di interferenze. Questo lavoro è volto ad indagare gli effetti di distrattori acustici rispetto a distrattori visivi in un compito di visual WM. A tale scopo sono stati acquisiti ed elaborati i segnali EEG di 12 soggetti volontari mentre eseguivano un compito di visual WM, in cui la fase di retention (mantenimento in memoria delle informazioni codificate) veniva interrotta con la presentazione di distrattori di due modalità sensoriali differenti (visiva e acustica), per valutare le variazioni dell’attività cerebrale in termini di ritmi alpha e theta e le regioni coinvolte. Si è osservato un aumento maggiore di potenza alpha (principalmente posteriore) in presenza del distrattore acustico rispetto al visivo sia nella fase pre-distrattore che nella fase distrattore, statisticamente significativo nella fase distrattore. Si è osservato un aumento maggiore di potenza theta (principalmente frontale) in presenza del distrattore acustico rispetto al visivo in tutte le fasi del task, statisticamente significativo nella fase iniziale di retention e nella fase del distrattore. I risultati potrebbero indicare una maggiore necessità di controllo cognitivo e di protezione da stimoli interferenti in caso di distrattore acustico rispetto al visivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra le varie tipologie di corpi celesti che popolano il nostro cielo, sono da rimarcare le nebulose planetarie, esiti prodotti dalla fase finale nella vita di stelle di massa medio piccola, che si liberano dei loro strati più esterni, lasciando al centro una nana bianca (una stella di elevatissima densità, di piccole dimensioni e con bassa luminosità) e illuminando lo spazio circostante in spettacolari emissioni aventi forme e caratteristiche apparentemente molto differenti tra loro. Questo elaborato si propone di definire alcune proprietà che caratterizzano le nebulose planetarie, come la loro morfologia, e di analizzare il loro processo di formazione. Saranno anche esaminati i diversi processi di emissione che avvengono nella nebulosa e che ci permettono di studiarne le caratteristiche. Infine saranno presentati alcuni risultati di uno studio su NGC6781, la nebulosa planetaria nella costellazione dell’Aquila.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il modello ΛCDM è l’attuale modello standard della cosmologia e descrive la presenza dell’energia oscura attraverso una costante cosmologica Λ. Nonostante i buoni fit con le osservazioni a livello di background, il modello non risulta essere simultaneamente consistente nella stima della costante di Hubble con le osservazioni ad alto redshift e quelle a basso redshift. Si presenta un modello cosmologico di quintessenza con accoppiamento, in cui si utilizza come vincolo una funzione di Hubble identica a quella del modello standard e in cui si studiano i principali parametri di interesse cosmologico per diversi possibili accoppiamenti costanti, risolvendo numericamente le equazioni del campo scalare di energia oscura e delle perturbazioni lineari del modello. Si introducono poi due possibili estensioni del modello, utilizzando come vincolo una funzione di Hubble che differisce da quella classica per una piccola deviazione nei valori a basso redshift e risolvendone il background, infine studiando nuovamente il modello con il background di ΛCDM in cui però si introduce un accoppiamento che varia nel tempo, in accordo con i vincoli derivanti dai dati della CMB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sempre più negli ultimi anni si interagisce con i chatbot, software che simulano una conversazione con un essere umano utilizzando il linguaggio naturale. L’elaborato di tesi mira ad uno studio più approfondito della tematica, a partire da come tale tecnologia si è evoluta nel corso degli anni. Si procede analizzando le principali applicazioni dei bot, soffermandosi anche sui cambiamenti apportati dalla pandemia di Covid-19, ed evidenziando le principali ragioni che portano aziende e singoli al loro utilizzo. Inoltre, vengono descritti i diversi tipi di bot esistenti e viene analizzato il Natural Language Processing, ramo dell’Intelligenza Artificiale che mira alla comprensione del linguaggio naturale. Nei capitoli successivi viene descritto il progetto CartBot, un’applicazione di chat mobile per l’e-grocery, implementata come un chatbot che guida il cliente all’acquisto della spesa online. Vengono descritte le tecnologie utilizzate, con particolare riferimento al software di Google Dialogflow, che permette di sviluppare bot; inoltre viene analizzata come è stata effettuata la progettazione, sia lato front-end che back-end, allegando il flowchart, un diagramma di flusso realizzato per definire la sequenza di azioni e passaggi richiesti dal bot per effettuare l’acquisto. Infine, sono descritte le varie sottosezioni di CartBot, che riguardano la visualizzazione dei prodotti e il completamento dell’ordine, allegando screenshot dell’interfaccia finale ottenuta e inserendo il codice di alcune funzioni rilevanti.