1000 resultados para acque, Marecchia, tecniche analitiche, nitrati
Resumo:
Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.
Resumo:
L’idea di focalizzare la tesi sulla supply chain ed in particolare sulle tecniche lean per la sua ottimizzazione deriva dal fatto che si tratta di un nuovo modo di ragionare, di un approccio moderno perfettamente adattabile al contesto socio-economico attuale, teso ad accrescere la flessibilità e l’efficienza dell’impresa attraverso un ripensamento dell’intero flusso di creazione del valore. Verranno analizzate le caratteristiche generali di questo modello organizzativo, per poi addentrarsi nella sua applicazione ed infine i vantaggi e gli eventuali svantaggi che le organizzazioni devono affrontare per implementare operativamente le tecniche lean. L’analisi effettuata nella tesi è strutturata come segue: La parte iniziale del primo capitolo definisce il concetto generale di supply chain sottolineando il contesto di riferimento in cui oggi operano le attività produttive. Vengono poi riportati l’accezione e il valore della supply chain management e le sue problematiche annesse di gestione e controllo. Nella seconda parte del capitolo vengono analizzati e descritti i modelli letterari esistenti utili per descrivere, impostare e classificare una supply chain. Il secondo capitolo, dopo una breve esposizione storica che descrive le origini della metodologia lean production, è orientato alla raccolta delle definizioni e alle loro differenti visioni tratte dal mondo della letteratura. Segue una parte più analitica, dove vengono analizzati in maniera dettagliata gli obiettivi, gli strumenti ed i principi che la filosofia lean prevede. Nel terzo capitolo viene approfondita la VSM, uno degli strumenti di principale importanza secondo le logiche della lean manufacturing. Vengono analizzati gli step necessari per una corretta implementazione, illustrando prima la simbologia internazionale necessaria per una sua comprensione e realizzazione e poi definiti gli step da applicare non solo per una semplice realizzazione, ma per l’ottenimento di una value stream map in ottica lean.
Resumo:
Il presente elaborato analizza il processo produttivo del vino Lambrusco, ripercorrendo la storia e la tecnica che hanno influenzato, e che comunque riguardano tuttora, il processo produttivo dei vini frizzanti a nome Lambrusco. In modo particolare analizza il percorso storico di evoluzione tecnica e tecnologica che ha maggiormente condizionato l’evoluzione di questo prodotto unico nel suo genere, descrivendo i processi produttivi maggiormente significativi, oltre ad approfondire alcuni argomenti di carattere enologico e microbiologico applicato di estrema attualità, che potranno essere utili per contrastare o mitigare le influenze sul prodotto dovute al cambiamento climatico, come il progressivo abbassamento delle acidità, l’innalzamento del grado alcolico e le sempre più frequenti alterazioni dei vini; così come per andare incontro alle tendenze di consumo del mercato, che richiede sempre di più vini freschi, morbidi e caratterizzati da una facile beva.
Resumo:
Background. I disturbi temporomandibolari sono una serie di condizioni cliniche che colpiscono l’ATM, la muscolatura masticatoria e le strutture annesse ad esse. I TMD hanno come sintomo principale il dolore e possono condurre a limitazioni della mobilità articolare, diminuendo la qualità della vita. Il trattamento è multidisciplinare e il primo intervento è quello conservativo. Le tecniche di terapia manuale rappresentano uno dei metodi conservativi di cui ci si può avvalere per il trattamento di pazienti affetti da TMD. Obiettivi. Valutare l’efficacia delle tecniche di terapia manuale nel miglioramento di outcome, quali: dolore, disabilità, range di movimento e qualità della vita. Metodi. La ricerca è stata condotta nel periodo tra Maggio 2022 e Settembre 2022, su tre banche dati: PubMed, PEDro e Chocrane Library. Sono stati selezionati esclusivamente RCT in lingua inglese, con partecipanti adulti affetti da TMD. La qualità metodologica degli studi è stata valutata tramite l’utilizzo della PEDro Scale. Risultati. Sono stati inclusi sei studi. Nei singoli studi, le tecniche di terapia manuale sono state confrontate o meno con altri approcci conservativi. In cinque RCT su sei, è stata rilevata un’alta qualità metodologica, con un punteggio medio di 7/10 nella PEDro Scale. Discussione. Nei sei studi inclusi, c’è stato un miglioramento degli outcome indagati, ad eccezione del ROM che in uno studio non ha mostrato miglioramenti post-trattamento manuale. In quattro studi su sei la valutazione finale degli outcome è avvenuta al termine delle settimane di trattamento, permettendo una visione esclusiva degli effetti a breve termine. La limitata indagine degli effetti a lungo termine e l’elevata eterogeneità tra gli studi denotano la necessità di ulteriori ricerche riguardanti l’argomento. Conclusioni. Le tecniche di terapia manuale sembrerebbero avere un effetto positivo nei pazienti affetti da TMD, se inserite all’interno di un programma riabilitativo multimodale.
Resumo:
La lesione del midollo spinale (LM) è una complessa condizione fisica che racchiude in sé sfide di carattere biomedico nonché etico-giuridico. La complessità della LM nonché la diversificazione delle esperienze dei singoli soggetti affetti da LM rendono questo un topic di grande interesse per la ricerca biomedicale, in relazione a nuovi metodi di cura e di riabilitazione dei soggetti. In particolare, la sinergia tra i saperi medico, informatici e ingegneristici ha permesso di sviluppare nuove tecnologie di comunicazione e di controllo neurologico e motorio che, capaci di sopperire a deficit cerebrali e/o motori causati da LM, consentono ai pazienti di avere una qualità di vita sensibilmente migliore, anche in termini di autonomia. Tra queste nuove tecnologie assistive primeggiano per efficacia e frequenza di utilizzo le Brain Computer Interfaces (BCI), strumenti ingegneristici che, attraverso la misurazione e l’analisi di segnali provenienti dall’attività cerebrale, traducono il segnale registrato in specifici comandi, rappresentando per l’utente con LM un canale di comunicazione con l’ambiente esterno, alternativo alle normali vie neurali. In questo elaborato l’analisi di due sperimentazioni, una su scimmia l’altra su uomo, entrambi affetti da LM, con differenti sistemi di monitoraggio dell’attività neurale, ha permesso di evidenziare un limite della ricerca sul topic: nonostante i promettenti risultati ottenuti su primati non umani, il carattere invasivo del sistema BCI–EES rende difficile traslare la sperimentazione su uomo. La sperimentazione su LM pone delle sfide anche dal punto di vista etico: sebbene siano auspicati lo sviluppo e l’applicazione di metodi alternativi alla sperimentazione animale, l’impiego di primati non umani appare ancora una scelta obbligata nel campo della ricerca di soluzioni terapeutiche finalizzate al ripristino della funzione locomotoria, per via della stretta affinità in termini di conformazione fisica, genetica e anatomica.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.
Resumo:
La radioterapia è una terapia medica molto utilizzata in campo oncologico. I diversi tipi di radiazione e di tecniche permettono di trattare, con diversi fini, una vasta gamma di neoplasie. Secondo i dati dell’AIRO, l’Associazione Italiana di Radioterapia e Oncologia clinica, nel 2020 sono stati trattati con la radioterapia circa 100mila pazienti in Italia, che conta 183 centri di radioterapia tra pubblici e privati, cioè circa 3 centri per milione di abitanti. La Società Europea di Radioterapia Oncologica, basandosi sullo studio ESTRO-HERO del 2014, suggerisce come parametro di confronto a livello nazionale o internazionale il numero di apparecchiature di radioterapia per milione di abitanti, e le Direttive Europee ne raccomandano un valore minimo di 7 unità. In questo elaborato, espongo l’evoluzione della radioterapia tramite la presentazione delle sue diverse tipologie, per poi concentrarmi sulla irradiazione corporea totale (Total Body Irradiation – TBI) nel caso studio della leucemia linfoblastica acuta (LLA). Il Capitolo 1 introduce la radioterapia e la sua principale suddivisione in esterna e interna, con i relativi sottogruppi. Viene poi spiegato come si valuta il volume bersaglio e vengono presentati il personale e le fasi del trattamento. Il Capitolo 2 introduce alla leucemia e alla LLA. Viene poi spiegato il trattamento di trapianto e quello di condizionamento. Infine, espongo la tecnica della TBI, le sue prestazioni ed i suoi limiti. Nelle conclusioni e future direzioni, valuto il problema della tossicità ed espongo le principali evoluzioni nell’uso della TBI.
Resumo:
La città di Bologna è sicuramente famosa per le sue due torri, ma anche per la fitta rete idraulica ormai nascosta sotto le strade e sotto gli edifici. I primi canali di Bologna furono realizzati tra il XII e il XVI secolo a seguito della costruzione delle due opere fondamentali: le chiuse di San Ruffillo e di Casalecchio. Queste due opere di presa servivano e, servono ancora oggi, ad alimentare i canali del Navile, del Reno, del Savena, del Cavaticcio e delle Moline. Oltre a questi canali alimentati dalle acque dei fiumi, sotto la città di Bologna scorrono torrenti che drenano le acque prevalentemente meteoriche della zona pedecollinare della città, come ad esempio il torrente Ravone. Il presente lavoro di tesi ha come caso di studio proprio quest’ultimo. Il Ravone, in origine, scorreva a cielo aperto attraversando la città, ma per permettere l’urbanizzazione fuori dalle mura, è stato tombato in diversi tratti e in diverse epoche. La scarsità di informazioni riguardo la sua esatta posizione e la mancanza di elaborati grafici in grado di descriverne la sua geometria, ha spinto le autorità a richiedere un accurato rilievo al LARIG dell’UniBo. Le operazioni di rilievo si sono svolte con l’uso di tecniche geomatiche per la modellazione tridimensionale come l’aerofotogrammetria e l’acquisizione con laser scanner terrestre. Al fine di georeferenziare il dato acquisito, si è ricorso a tecniche di rilievo topografico come il posizionamento GNSS e la misurazione di angoli e distanze con stazione totale. I primi capitoli di questo elaborato sono dedicati alla descrizione dei fondamenti teorici della geodesia e delle tecniche di rilievo utilizzate per la restituzione del modello tridimensionale. Gli ultimi capitoli, invece, sono dedicati alla descrizione delle fasi di rilievo e all’analisi dei dati, dedicando particolare attenzione alla georeferenziazione delle nuvole di punti acquisite in ambienti confinati, come i tratti tombati del torrente Ravone.
Resumo:
Il layout di un sistema di stoccaggio è un fattore caratteristico e cruciale nell’organizzazione del lavoro e dei flussi di materiale di un’azienda, se le condizioni di partenza non sono soddisfacenti è possibile passare da un layout AS-IS ad uno TO-BE che implementi alcune caratteristiche ricercate. Per intervenire sul layout AS-IS del magazzino in maniera funzionale, e poterne poi sviluppare uno in parte ex-novo, è stato necessario attraversare 3 diverse fasi che ridisegnassero il magazzino. Nella prima fase sono state applicate alcune tecniche di lean manufacturing con lo scopo di eliminare il superfluo e riorganizzare ciò che effettivamente fosse funzionale al lavoro eseguito quotidianamente. Lavorando assieme all’operatore addetto al magazzino è stato possibile raggiungere ottimi risultati sia da un punto di vista qualitativo che quantitativo. Nella seconda fase si è affrontato il problema dello storage assignment che consiste nell’assegnare la diversa merce all’interno del magazzino. Il maggior spazio ottenuto dall’applicazione delle tecniche di lean manufacturing è stato determinante per la scelta di una politica class-based storage. Utilizzando questa politica è stato possibile definire con precisione il numero e la grandezza dei reparti di cui necessitava il magazzino. Le prime due fasi ed i loro risultati operativi tra cui: maggior ordine creato, incremento dello spazio disponile e definizione dei reparti nel magazzino; sono stati fondamentali per poter applicare alcuni algoritmi euristici risolutivi che sviluppassero delle soluzioni di layout TO-BE. Non avendo flussi di materiali costanti ma basandosi soprattutto su lavoro a commessa o lavorazioni di manutenzione su prodotti già consegnati sono stati utilizzati unicamente degli algoritmi costruttivi. Nello specifico sono stati utilizzati 4 diversi algoritmi TCR, Aldep, Corelap e RDM per rendere l’intera trattazione più esaustiva.
Resumo:
L'intelligenza artificiale (IA) trova nei giochi un campo di applicazione molto vasto, nel quale poter sperimentare svariate tecniche e proporre nuove stimolanti sfide che spingano i partecipanti ad esplorare nuovi orizzonti nell'ambito delle applicazioni di IA. La Keke AI Competition rappresenta una di queste sfide, introducendo una gara tra agenti intelligenti per il gioco Baba is You, puzzle game in cui i giocatori possono creare regole che influenzano le meccaniche del gioco in maniera temporanea o permanente. La natura di queste regole dinamiche crea una sfida per l'intelligenza artificiale, che deve adattarsi ad una varietà di combinazioni di meccaniche per risolvere un livello. Questo progetto di tesi si propone di realizzare un agente intelligente che possa idealmente partecipare alla competizione sfruttando tecniche di pianificazione automatica. In particolare, l'agente progettato si basa sull'algoritmo di pianificazione graphplan che opera a diversi livelli di astrazione posti in gerarchia tra loro ed è stato realizzato completamente in Prolog. Questo progetto mostra quindi come le tecniche di pianificazione automatica siano un valido strumento per risolvere alcune tipologie di giochi innovativi complessi nell'ambito dell'IA.
Resumo:
La tesi di laurea, di tipo sperimentale, nasce dall’esigenza di progettare un sistema di force feedback da installare sui comandi di un simulatore di volo per elicottero, prevedendo di utilizzare tecnologie additive per la produzione dei componenti. Sono state, quindi, presentate alcune proposte per il soddisfacimento dei requisiti di progetto. Tra le due soluzioni progettuali individuate, una è stata scartata, mentre l'altra, basata su un collare da montare sul comando del ciclico e su un disegno per il supporto del sistema di ritenuta, è stata sviluppata. Sono state fatte, di conseguenza, assieme a quelle di tipo progettuale, alcune scelte legate alla pianificazione meccanica (ad esempio, scelta delle viti e delle molle). Il risultato finale è un sistema di force feedback funzionante, in cui la leva del comando ciclico del simulatore di volo per elicottero oppone uno sforzo in seguito ad una deflessione da parte del pilota.
Resumo:
Nella sede dell’azienda ospitante Alexide, si è ravvisata la mancanza di un sistema di controllo automatico da remoto dell’intero impianto di climatizzazione HVAC (Heating, Ventilation and Air Conditioning) utilizzato, e la soluzione migliore è risultata quella di attuare un processo di trasformazione della struttura in uno smart building. Ho quindi eseguito questa procedura di trasformazione digitale progettando e sviluppando un sistema distribuito in grado di gestire una serie di dati provenienti in tempo reale da sensori ambientali. L’architettura del sistema progettato è stata sviluppata in C# su ambiente dotNET, dove sono stati collezionati i dati necessari per il funzionamento del modello di predizione. Nella fattispecie sono stati utilizzati i dati provenienti dall’HVAC, da un sensore di temperatura interna dell'edificio e dal fotovoltaico installato nella struttura. La comunicazione tra il sistema distribuito e l’entità dell’HVAC avviene mediante il canale di comunicazione ModBus, mentre per quanto riguarda i dati della temperatura interna e del fotovoltaico questi vengono collezionati da sensori che inviano le informazioni sfruttando un canale di comunicazione che utilizza il protocollo MQTT, e lo stesso viene utilizzato come principale metodo di comunicazione all’interno del sistema, appoggiandosi ad un broker di messaggistica con modello publish/subscribe. L'automatizzazione del sistema è dovuta anche all'utilizzo di un modello di predizione con lo scopo di predire in maniera quanto più accurata possibile la temperatura interna all'edificio delle ore future. Per quanto riguarda il modello di predizione da me implementato e integrato nel sistema la scelta è stata quella di ispirarmi ad un modello ideato da Google nel 2014 ovvero il Sequence to Sequence. Il modello sviluppato si struttura come un encoder-decoder che utilizza le RNN, in particolare le reti LSTM.
Resumo:
La tesi ha come obiettivo quello di confrontare i metodi di previsione delle rotture affrontati durante il corso di studi e avvalorati dal libro di Horst Rinne del 2008. Nell'applicare la teoria al sistema reale, si evincono i problemi che sorgono nelle previsioni, come: l’incertezza, la mancanza e l’impossibilità di utilizzo della totalità dei dati a disposizione. E' stato necessario, pertanto, adattare i dati prima di utilizzarli e sfruttare nuovi metodi per raggiungere i risultati prefissati.
Resumo:
Il progetto si presenta come un miglioramento di una particolare terapia sanitaria, dove la maggior parte dei pazienti, soprattutto quelli in un’età delicata, possono avvertire determinati problemi fisici o psicologici. La terapia in questione è la Chemioterapia, che consiste nella somministrazione di una o più sostanze capaci di aggredire le cellule tumorali che si moltiplicano grazie a una fleboclisi, ovvero una procedura che è in grado di somministrare via endovenosa una sostanza come il trattamento appena citato, sfruttando alcune vene solide del braccio come la Basilica. Grazie a un’esperienza personale, pareri (dottoressa Antonella Sau) e coinvolgimenti di altri pazienti dell’associazione AGBE che hanno avuto un problema simile, è stato possibile progettare e inventare un tutore polimerico ad alta compatibilità dermatologica, in grado di immobilizzare l’arto usato nella terapia regalando una maggiore comodità e stabilità sia della fleboclisi che del braccio stesso. Inizialmente il tutore sarà ideato prendendo specifiche misure dell’avambraccio/gomito del singolo paziente, per poi stamparlo in 3D e portarlo ad effettuare i cicli somministrati per combattere la malattia. A fine di tutto, il paziente avrà sostenuto una cura delicata come la Chemioterapia con un maggiore comfort, maggiore stabilità psicologica e soprattutto meno complicanze come stravaso, infezioni varie, fuoriuscite di sostante chemioterapeutiche, gonfiori, depressione e irritazioni endovenose.
Resumo:
I principi Agile, pubblicati nell’omonimo Manifesto più di 20 anni fa, al giorno d’oggi sono declinati in una moltitudine di framework: Scrum, XP, Kanban, Lean, Adaptive, Crystal, etc. Nella prima parte della tesi (Capitoli 1 e 2) sono stati descritti alcuni di questi framework e si è analizzato come un approccio Agile è utilizzato nella pratica in uno specifico caso d’uso: lo sviluppo di una piattaforma software a supporto di un sistema di e-grocery da parte di un team di lab51. Si sono verificate le differenze e le similitudini rispetto alcuni metodi Agile formalizzati in letteratura spiegando le motivazioni che hanno portato a differenziarsi da questi framework illustrando i vantaggi per il team. Nella seconda parte della tesi (Capitoli 3 e 4) è stata effettuata un’analisi dei dati raccolti dal supermercato online negli ultimi anni con l’obiettivo di migliorare l’algoritmo di riordino. In particolare, per prevedere le vendite dei singoli prodotti al fine di avere degli ordini più adeguati in quantità e frequenza, sono stati studiati vari approcci: dai modelli statistici di time series forecasting, alle reti neurali, fino ad una metodologia sviluppata ad hoc.