699 resultados para Tasso, Torquato


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli oncocitomi sono tumori epiteliali caratterizzati da un accumulo di mitocondri strutturalmente e funzionalmente compromessi, a prognosi generalmente benigna. Le cause genetiche della trasformazione oncocitaria sono tuttora sconosciute; pertanto, lo studio di oncocitomi in contesti familiari sindromici è utile nella ricerca dei determinanti genetici predisponenti il fenotipo. Diversi membri di una famiglia affetta da sindrome dell’iperparatiroidismo con tumore della mandibola (HPT-JT), dovuta ad un'ampia delezione in CDC73, hanno mostrato recidiva di tumori paratiroidei oncocitari. Il sequenziamento dell’esoma ha escluso mutazioni private della famiglia; all'interno della delezione ereditata, tuttavia, sono stati individuati elementi regolatori del gene glutaredossina 2 (GLRX2), codificante un'isoforma mitocondriale deputata alla deglutationilazione proteica reversibile -modificazione modulante l’attività di numerosi target- il cui ruolo nel cancro non è noto. La proteina è risultata assente in tutti i tumori e dimezzata nei tessuti sani dei soggetti. Per indagare se la sua assenza alteri la deglutationilazione proteica predisponendo al fenotipo oncocitario, sono stati generati modelli cellulari TPC1 e HCT116 GLRX2 KO in cui sono stati riscontrati un ridotto tasso proliferativo ed un'alterata glutationilazione proteica, particolarmente in seguito a stress ossidativo. Un esperimento pilota in vivo ha mostrato cellule KO oncocitoidi, con mitocondri morfologicamente alterati, suggerendo che l’alterazione redox innescata dall’assenza di GLRX2 possa indurre una disfunzione metabolica mitocondriale tale da mimare quelle osservate negli oncocitomi. L’analisi proteomica ha individuato diversi target di glutationilazione nei campioni KO identificando proteine del ciclo di Krebs e della catena respiratoria mitocondriale. In particolare, una marcata glutationilazione del complesso della piruvato deidrogenasi (PDHc) è stata correlata ad una ridotta sintesi di ATP dipendente da piruvato. Considerando l'importanza dello stress ossidativo nella fisiopatologia del cancro ed il ruolo del glutatione nella risposta antiossidante, GLRX2 rappresenta un potenziale candidato nella regolazione del metabolismo ossidativo nelle cellule tumorali esposte allo stress e nella modulazione del fenotipo tumorale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le neoplasie cutanee di tipo non-melanoma (non-melanoma skin cancers, NMSCs), quali il carcinoma a cellule basali (basal cell carcinoma, BCC) e il carcinoma a cellule squamose (squamous cell carcinoma, SCC) possono mostrare invasività locale e alto tasso di recidiva. La chirurgia microscopicamente controllata di Mohs (Mohs micrographic surgery, MMS) permette di eseguire una valutazione istologica immediata dei margini chirurgici delle neoplasie contestualmente alla loro escissione. Nel nostro studio abbiamo valutato del ruolo delle tecnologie in vivo (dermatoscopia e microscopia confocale a riflettanza, MCR) nella definizione dei margini preoperatori di NMSC ad alto rischio del volto e descritto la nostra esperienza con chirurgia tradizionale e MMS. Sono stati valutati 234 pazienti operati nel triennio 2019-2021: 39 con MMS e guida videodermatoscopica (Gruppo 1) e 195 con chirurgia tradizionale e guida videodermatoscopica (Gruppo 2). I pazienti operati nel periodo 2013-2018 (con MMS, Gruppo 3 (n = 241), e con chirurgia tradizionale, Gruppo 4 (n = 1086)) sono stati usati come confronto. La radicalità chirurgica è stata ottenuta nel Gruppo 1 nel 92,3% dei casi, con 1,2 steps in media di MMS (versus 1,7 nel Gruppo 3), nel Gruppo 2 nell’84,5% dei casi. La percentuale di non radicalità è stata: 7,7% nel Gruppo 1, 15,9% nel Gruppo 2, 6,2% nel Gruppo 3, 17,9% nel Gruppo 4. I tassi di recidiva sono stati: 5,1% nel Gruppo 1, 3,6% nel Gruppo 2, 4,1% nel Gruppo 3, 5,9% nel Gruppo 4, soprattutto in BCC di tipo sclerodermiforme e infiltrante. La MCR prechirurgica è stata utilizzata in 11 pazienti, con alcuni limiti nel delineare BCC di tipo sclerodermiforme e infiltrante. In conclusione, la videodermatoscopia e la MCR appaiono valide tecniche ancillari alla MMS e anche alla chirurgia tradizionale nel trattamento dei NMSCs. La MMS appare indicata soprattutto nei pazienti giovani e salvaguarda l’outcome estetico e funzionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background Il trapianto polmonare rappresenta l'unica soluzione percorribile per l'insufficienza respiratoria end-stage. La principale limitante ad un suo impiego è rappresentata dalla scarsità di polmoni idonei. In questo contesto si colloca il progetto di ricondizionamento ex-vivo. L'implementazione risulta possibile attraverso il ricondizionamento di organi cosiddetti “marginali” o giudicati inizialmente non idonei al trapianto e da donatori a cuore fermo (Donor after Cardiac Death – DCD). Scopo Lo scopo principale del progetto è quello di analizzare i risultati a breve e medio termine del trapianto polmonare effettuato impiegando polmoni sottoposti a procedura di ricondizionamento ex-vivo in due centri trapianti di polmone a basso volume. Materiali e Metodi I dati sono stati raccolti retrospettivamente (da Giugno 2013 per quanto riguarda l’ISMETT e dal 2014 quelli dell’ Ospedale S. Orsola-Malpighi) e in maniera prospettica dal 2019. Risultati Sommando i dati relativi ad entrambi i centri, dal 2013 sono stati eseguiti un totale di 26 procedure di riperfusione. Sei volte i polmoni sono stati giudicati idonei al trapianto al termine con 5 trapianti doppi e un trapianto singolo sinistro. I risultati in termine di sopravvivenza a medio termine sono risultati sovrapponibili a quelli disponibili in letteratura, tuttavia è stato registrato un alto tasso di PGD (Primary Graft Disfunction) di grado 3, da imputare alla patologia di base del ricevente (ipertensione polmonare), che per protocollo di istituto rimane con supporto cardio-respiratorio (ECMO) dopo il trapianto. Conclusioni L’EVLP si conferma in centri di piccolo e medio volume un metodo sicuro ed efficace per implementare in numero di polmoni idonei al trapianto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Premessa: Enhanced Recovery After Surgery (ERAS) riduce le complicanze e accorcia il recupero nei pazienti sottoposti a chirurgia per tumore del colon-retto. I pazienti più anziani sono spesso esclusi dai programmi ERAS a causa della difficoltà nell'applicazione dei protocolli stabiliti. Lo scopo dello studio è stato valutare i benefici di ERAS nei pazienti anziani sottoposti a chirurgia colorettale elettiva e valutare i risultati a breve termine. Metodi: studio monocentrico osservazionale prospettico condotto da febbraio 2021 a luglio 2022. Sono stati inclusi tutti i pazienti di età ≥ 70 anni sottoposti a chirurgia colorettale elettiva. I risultati e le complicanze postoperatorie dei pazienti trattati secondo il nostro protocollo ERAS sono stati confrontati con un gruppo di pazienti < 70 anni sottoposti a intervento chirurgico per cancro del colon-retto nello stesso periodo. Risultati: abbiamo incluso un totale di 186 pazienti (104 ≥ 70 anni vs. 82 < 70 anni). Un terzo dei pazienti di entrambi i gruppi non ha sviluppato complicanze perioperatorie (65,4% vs. 67,0%, p = 0,880). Ugualmente non sono state osservate differenze nell’incidenza di complicanze di grado I-II (31,7% vs. 28,0%) né digrado III-IV (1,9% vs. 4,9%) secondo Dindo-Clavien tra i due gruppi (p = 0,389). Il tasso di leak anastomotico e il reintervento non sono risultati statisticamente differenti tra i due gruppi: 3,8% vs. 4,9% (p = 0,733) e 1,0% vs. 3,6% (p = 0,322) rispettivamente pazienti ≥ 70 anni vs. < 70 anni. I temi di degenza media sono stati di 5.1±4.3 vs. 4.6±4.2, (p = 0.427), mentre i tassi di riammissione sono rimasti inalterati. La mortalità a 90 giorni è risultata del 2,8% vs. 0% (p = 0,256). Conclusioni: nella nostra esperienza i pazienti ≥ 70 anni affetti da tumore del colon-retto dovrebbero seguire routinariamente un programma ERAS prevedendo gli stessi benefici degli altri gruppi di età.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno il concetto di informazione è diventato cruciale in fisica, pertanto, siccome la migliore teoria che abbiamo per compiere predizioni riguardo l'universo è la meccanica quantistica, assume una particolare importanza lo sviluppo di una versione quantistica della teoria dell'informazione. Questa centralità è confermata dal fatto che i buchi neri hanno entropia. Per questo motivo, in questo lavoro sono presentati elementi di teoria dell'informazione quantistica e della comunicazione quantistica e alcuni sono illustrati riferendosi a modelli quantistici altamente idealizzati della meccanica di buco nero. In particolare, nel primo capitolo sono forniti tutti gli strumenti quanto-meccanici per la teoria dell'informazione e della comunicazione quantistica. Successivamente, viene affrontata la teoria dell'informazione quantistica e viene trovato il limite di Bekenstein alla quantità di informazione chiudibile entro una qualunque regione spaziale. Tale questione viene trattata utilizzando un modello quantistico idealizzato della meccanica di buco nero supportato dalla termodinamica. Nell'ultimo capitolo, viene esaminato il problema di trovare un tasso raggiungibile per la comunicazione quantistica facendo nuovamente uso di un modello quantistico idealizzato di un buco nero, al fine di illustrare elementi della teoria. Infine, un breve sommario della fisica dei buchi neri è fornito in appendice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa Tesi di Laurea è legata agli aspetti tecnologici dell'esperimento Gamma-Flash, progetto coordinato dall'Istituto Nazionale di Astrofisica finanziato dall'Agenzia Spaziale Italiana che ha lo scopo di studiare eventi altamente energetici che avvengono in atmosfera denominati Terrestial Gamma-ray Flashes (TGFs). Questi eventi hanno uno stretto legame con i fulmini che avvengono durante episodi temporaleschi. I fulmini producono particelle ionizzate ed elettroni che per effetto bremmstrahlung emettono radiazione in un ampio intervallo di energie da centinaia di keV a decine di MeV. Questo tipo di eventi è stato rivelato da numerose missioni da satellite fin dagli anni '90 (BATSE/CGRO) e successivamente con i satelliti RHESSI, AGILE, BeppoSAX e Fermi. Molto più rare sono le osservazioni di questi eventi da terra o da rivelatori posti su velivoli. Gamma-Flash ha lo scopo di realizzare strumentazione per la rivelazione di questi eventi da un osservatorio posto su M.te Cimone (2165m s.l.m) e su un aereo in grado di raggiungere quote di 8-10000m. L'esperimento viene effettuato attraverso rivelatori a scintillazione e con elettronica dedicata la cui risposta in energia dipende dalla temperatura di funzionamento. È quindi importante conoscere come il detector si comporta al variare della temperatura, che, soprattutto nell'esperimento terrestre, può variare di decine di gradi anche su tempi scala brevi. Scopo di questa tesi è stato quindi di caratterizzare uno dei rivelatori che saranno posti all'Osservatorio O. Vittori di M.te Cimone utilizzando una camera climatica che simula le condizioni di temperatura variabili e riscontrabili durante l'esperimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi verte sull’analisi e l’ottimizzazione dei flussi di libri generati tra le diverse sedi della biblioteca pubblica, Trondheim folkebibliotek, situata a Trondheim, città del nord norvegese. La ricerca si inserisce nell’ambito di un progetto pluriennale, SmartLIB, che questa sta intraprendendo con l’università NTNU - Norwegian University of Science and Technology. L’obiettivo di questa tesi è quello di analizzare possibili soluzioni per ottimizzare il flusso di libri generato dagli ordini dei cittadini. Una prima fase di raccolta ed analisi dei dati è servita per avere le informazioni necessarie per procedere nella ricerca. Successivamente è stata analizzata la possibilità di ridurre i flussi andando ad associare ad ogni dipartimento la quantità di copie necessarie per coprire il 90% della domanda, seguendo la distribuzione di Poisson. In seguito, sono state analizzate tre soluzioni per ottimizzare i flussi generati dai libri, il livello di riempimento dei box ed il percorso del camion che giornalmente visita tutte le sedi della libreria. Di supporto per questo secondo studio è stato il Vehicle Routing Problem (VRP). Un modello simulativo è stato creato su Anylogic ed utilizzato per validare le soluzioni proposte. I risultati hanno portato a proporre delle soluzioni per ottimizzare i flussi complessivi, riducendo il delay time di consegna dei libri del 50%, ad una riduzione del 53% del flusso di box e ad una conseguente aumento del 44% del tasso di riempimento di ogni box. Possibili future implementazioni delle soluzioni trovate corrispondono all’installazione di una nuova Sorting Machine nella sede centrale della libreria ed all’implementazione sempre in quest’ultima di un nuovo schedule giornaliero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si propone di illustrare il meccanismo di funzionamento delle celle fotoelettrochimiche (PEC cell) per la produzione di idrogeno, grazie allo studio di diversi semiconduttori, attraverso il cosiddetto fenomeno del water splitting. Nella cella `e stata testata un’eterogiunzione di Triossido di Tungsteno (WO3), una di Triossido di Tungsteno e Bismuto Vanadato (BiVO4) e una terza analoga alla precedente con l’aggiunta di un catalizzatore (CoFe–PB, cobalto-ferro blu di Prussia) per diminuire l’effetto della ricombinazione delle coppie elettrone - lacuna. All’interno della cella il campione era immerso in una soluzione di Acetato (CH3 COO – ) 0.2 M a pH 5. Le principali grandezze misurate sono la fotocorrente prodotta all’interno della cella e il tasso di riduzione e ossidazione dell’acqua.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I mareografi sono strumenti che misurano il livello del mare in un punto della costa. Tuttavia, essendovi ancorati, essi sono soggetti al suo movimento. Inoltre, il livello del mare è fortemente influenzato da effetti locali. In una prima parte, si è quindi selezionato un insieme di questi in base alla completezza dei dati e a restrizioni geografiche, in modo che nel loro complesso fossero il più possibile rappresentativi della situazione media globale. Di ognuno di essi si sono studiati la monotonicità e l’andamento in due ventenni consecutivi, il primo dal 1980. In questo modo è stato possibile evidenziare, ove presenti, modifiche nel tasso di variazione annuale del livello del mare in ogni località nei due periodi. Studiati i singoli mareografi si è poi proceduto ad effettuarne uno stacking per ottenere una stima meno influenzata da effetti locali. Il test di monotonia identifica in entrambi i casi un chiaro trend crescente. Il risultato della regressione lineare sui due periodi ha fornito tassi pari rispettivamente a (2.1 ± 0.5)mm/yr e (4.7 ± 0.5)mm/yr. Per migliorare la significatività del test di monotonia, si sono poi rimossi i modi semi-periodici mediante il metodo di decomposizione EMD (Empirical Mode Decomposition). Ripetendo la regressione lineare si ottengono risultati simili ma con minore incertezza: (2.3 ± 0.2)mm/yr e (4.9 ± 0.2)mm/yr. Come approccio alternativo, per cercare di superare l’arbitrarietà della scelta dei due archi temporali, si è effettuato un fit quadratico sulle serie dati dal 1980 al 2020. In questi modo, è stato possibile identificare e raggruppare situazioni contraddistinte da andamenti generali simili. In seguito, si è mostrato come, in entrambi i periodi, ci sia una forte correlazione lineare fra i mareografi sulla costa occidentale degli Stati Uniti e fra i mareografi posti nel Mediterraneo. Infine, viene studiato il caso dei mareografi della Laguna Veneta e la loro correlazione con altri posizionati nell'Adriatico settentrionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo dell'elaborato è quello di studiare le proprietà spettrali di un'operatore di Markov associato ad una passeggiata aleatoria ipoellittica dipendente da un parametro h, sufficientemente piccolo, e costruita su una varietà liscia finito-dimensionale, connessa, compatta e senza bordo. Nell'affrontare tale problema si utilizza una tecnica di Rothschild e Stein, basata sulla costruzione di un'algebra di Lie graduata. Si ottiene in questo modo una corrispondenza tra la varietà e l'algebra di Lie, e si utilizza la struttura che quest'ultima presenta per studiare il problema su di essa. Il risultato principale a cui si vuole giungere tramite l'analisi spettale dell'operatore di Markov è una stima, uniforme rispetto ad h, per il tasso di convergenza di tale passeggiata aleatoria verso l'equilibrio, al tendere del numero dei passi all'infinito. Tramite l'approccio utilizzato si giunge inoltre ad un risultato di convergenza della catena di Markov ad una diffusione ipoellittica continua al tendere di h a 0.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Angiodroid The CO2 Injector è un dispositivo medico che permette il dosaggio di CO2 nelle cavità vascolari a volumi e pressioni controllate. La CO2 agisce come mezzo di contrasto durante gli esami angiografici, offrendo notevoli vantaggi e bassissimo tasso di complicazioni rispetto ai mezzi di contrasto iodati. L’oggetto di questa tesi è lo studio di due Essential Performance Requirements (EPR) di Angiodroid, definiti come le prestazioni di una funzione clinica diversa da quella relativa alla sicurezza di base, in cui la perdita o la degradazione oltre i limiti specificati dal produttore comporta un rischio inaccettabile. Gli EPR presi in considerazione sono il volume e la pressione di iniezione di CO2, in quanto l’erogazione affidabile e ripetibile del gas permette sia di garantire la sicurezza del paziente sia di standardizzare i protocolli di iniezione per i diversi distretti vascolari. Sovradosaggio e sovrapressione della somministrazione della dose di CO2 possono comportare potenziali rischi clinici per il paziente, mentre sottodosaggio e una sottopressione non sono legati a rischi clinici, piuttosto comportano una scarsa qualità dell’immagine radiologica. Lo scopo della tesi è quello di validare gli intervalli di precisione del volume e della pressione di iniezione in diversi scenari entro i quali il dispositivo è considerato conforme e sicuro. I test di validazione sono stati eseguiti su 5 iniettori al termine della loro life cycle (8 anni) attraverso un invecchiamento accelerato. I valori di volume e la pressione di iniezione sono stati esaminati sia in aria, cioè senza carico, sia su un modello di paziente simulato, quindi con carico, utilizzando introduttori e cateteri angiografici autorizzati dalla Food and Drug Administration. Tutte le analisi sono state effettuate simulando gli scenari di funzionamento dell'iniettore più critici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliosi è una delle patologie più importanti che affliggono la colonna vertebrale, che può essere trattata chirurgicamente con un intervento di fissazione posteriore per ripristinare l’allineamento della colonna vertebrale sul piano coronale. Questa chirurgia ha al momento un alto tasso di fallimento. Una delle principali complicazioni che portano al fallimento è l’insorgenza di patologia giunzionale lombare distale. In letteratura l’influenza dello sbilanciamento coronale non è stata ancora sufficientemente approfondita. Per questo, l’obiettivo di questo studio è quello di verificare l’esistenza di possibili correlazioni tra i parametri spinopelvici nel piano coronale e l’incidenza della patologia giunzionale distale nella regione lombare. Sono stati selezionati tutti i pazienti affetti da scoliosi che sono stati sottoposti a fissazione spinale strumentata nel 2017 e 2018 all’Istituto Ortopedico Rizzoli. Questi pazienti sono stati poi divisi in due gruppi, un gruppo di controllo che comprendeva 66 pazienti e un gruppo di 31 pazienti che hanno presentato patologia giunzionale distale, andando così incontro a revisione. In entrambi i gruppi sono stati estratti i dati demografici dei pazienti e sono stati misurati i parametri spinopelvici su radiografie in ortostatismo in proiezione anteroposteriore sia precedentemente che successivamente all’intervento di fissazione; per i pazienti affetti da patologia giunzionale distale sono state esaminate anche le radiografie precedenti alla revisione. L'analisi dei risultati di questo studio ha consentito di ipotizzare possibili correlazioni tra il fallimento di un intervento di fissazione spinale e alcune caratteristiche del paziente, quali età, BMI, sbilanciamento coronale , deviazione della vertebra apice e ampiezza (misurata secondo il metodo di Cobb) delle curve scoliotiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato finale ha lo scopo di illustrare tutti i parametri necessari alla progettazione di un “buon” impianto di illuminazione stradale, dotato di tutte le nuove tecnologie, per un maggior risparmio energetico incentrato alla valorizzazione e riqualificazione urbana. L’illuminazione pubblica negli ultimi decenni ha ricoperto un’importanza sempre maggiore all’interno della città e del territorio aumentando in modo esponenziale la presenza di corpi illuminanti e formando spesso una vera e propria macchia di luce durante la notte. L’implementazione degli apparecchi di illuminazione ha portato ad una maggiore sicurezza e, a volte, un maggiore comfort nelle zone cittadine, ma anche un notevole aumento di costi energetici a carico delle amministrazioni comunali. Pertanto, alla luce degli ultimi mesi, è necessario incrementare i servizi tecnologici basati sull’efficientamento energetico degli impianti, in particolare, adottando sempre di più la sorgente a LED e sistemi di riduzione del flusso luminoso, in sostituzione alle lampade obsolete esistenti con un basso rendimento energetico. Con lo sviluppo del traffico veicolare degli ultimi anni, l’illuminazione urbana ha modificato il suo aspetto nelle città, concentrandosi sul rispetto dei valori prescritti per consentire una maggiore sicurezza e scorrevolezza del traffico motorizzato durante le ore notturne a discapito della valorizzazione urbana. Infatti, le statistiche hanno mostrato che il tasso degli incidenti notturni, ossia il rapporto tra gli incidenti e il numero di veicoli in circolazione, è più elevato rispetto agli incidenti durante le ore diurne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.