995 resultados para DSA,problemi matematici,didattica personalizzata e individualizzata,consegne modificate
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.
Resumo:
Esposizione problemi di Sturm-Liouville regolari 1D e di un metodo di risoluzione per essi, ovvero il metodo della funzione di Green. Definizione di autovalori e autofunzioni per tali problemi e proprietà legate ad essi sfruttando anche le proprietà della funzione di Green, in particolare il risultato più importante sarà quello che le autofunzioni costituiscono una base ortonormale in L^2(I) dove I è un intervallo.
Resumo:
L'obiettivo di questa tesi è di fornire un'introduzione alla teoria dei q-analoghi in ambito combinatorio e alcune sue applicazioni allo studio di problemi legati a successioni numeriche. Lo scopo di questa teoria è quello di ricavare informazioni e proprietà aggiuntive su alcuni oggetti matematici discreti attraverso una loro generalizzazione di tipo polinomiale. In particolare sono proposti alcuni risultati legati al conteggio delle permutazioni di insiemi e multiinsiemi, delle partizioni di interi e dei cammini di Dyck.
Resumo:
In questa tesi presentiamo una nuova proposta didattica che consiste nel fare il calcolo differenziale senza l'utilizzo di infinitesimi.
Resumo:
La financial literacy viene definita dall’Ocse come il processo per mezzo del quale i cittadini migliorano la loro comprensione su prodotti finanziari, i concetti ad essi correlati e i rischi associati e, attraverso l’informazione, l’istruzione e consigli oggettivi, sviluppano le capacità e la fiducia nella propria consapevolezza dei rischi e delle opportunità finanziarie, di sapere dove chiedere aiuto, e intraprendere altre azioni efficaci per migliorare il proprio benessere economico. Attraverso una contestualizzazione sociale, scolastica e metodologica, il lavoro di tesi si propone di indagare i livelli di financial literacy tra gli studenti di quattro classi superiori di diverso grado. Una prima indagine avviene attraverso un pre-test sulle conoscenze finanziarie, cultura e rapporto affettivo con il mondo finanziario. Successivamente viene proposto un percorso composto da tre attività originali riguardanti il “gioco in borsa”, la pianificazione e il futuro, e le leggi finanziarie. Si analizzano: l’applicazione di conoscenze matematiche, i ragionamenti e gli atteggiamenti degli studenti nelle quattro classi.
Resumo:
In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.
Resumo:
L’estrema digitalizzazione ha comportato, recentemente, uno stravolgimento totale in vari ambiti come informazione, socializzazione, compravendita e comunicazione. Alcune aziende, come Meta, Amazon, Google ed Apple si sono rese protagoniste di questa rivoluzione, creando dispositivi e sviluppando piattaforme in grado di attirare una quantità elevatissima di utenti e di connettere individui molto distanti tra loro, abbattendo la barriera costituita dalla distanza. Tuttavia, nonostante la loro importanza economico-sociale e il loro impatto globale, queste aziende hanno fatto ricorso, di tanto in tanto, a pratiche scorrette capaci di metterle in una posizione di vantaggio e, dopo averla conseguita, hanno approfittato del loro status per isolarsi ulteriormente dalla pressione concorrenziale di altre aziende. In questa tesi si cercherà di comprendere se la tecnologia possa favorire un ritorno della concorrenza tra piattaforme ed in quale misura.
Resumo:
In questa tesi mi sono occupata delle funzioni in più variabili che sono un argomento che viene svolto nella scuola secondaria nel caso di due dimensioni. Nei documenti ministeriali, Indicazioni Nazionali e Linee Guida, è previsto che l’argomento delle funzioni in due variabili sia trattato nella classe quinta degli istituti tecnici. Nella scuola secondaria si trattano i seguenti argomenti: dominio, punti stazionari, piano tangente,curve di livello e il grafico di una funzione in due variabili. In questa tesi mi sono occupata di preparare una proposta didattica sull’argomento delle funzioni in due variabili utilizzando il software GeoGebra. Nella unità didattica presento il dominio, i punti stazionari e le curve di livello. In particolare, per spiegare le curve di livello ho deciso di adottare la metodologia didattica della didattica laboratoriale poiché volevo stimolare la curiosità e l’interesse degli alunni. Infatti, ho preparato una esercitazione sulle curve di livello da svolgere in laboratorio, divisi in coppie, con GeoGebra. Nella mia esperienza di tirocinio ho avuto l’opportunità di sperimentare questa unità didattica in una scuola, l’istituto tecnico Belluzzi di Bologna.
Resumo:
Un forno è un oggetto costituito da una camera vuota, definita cavità, che espone in maniera controllata i materiali posti al suo interno ad un ambiente caldo. Esistono diversi tipi di forni (a gas, elettrici, a microonde, a legna) e sono utilizzati con diversi scopi a seconda delle dimensioni e di come generano il calore. Il prodotto alimentare viene cotto in forno attraverso la trasmissione di calore per irraggiamento, per convezione o per una combinazione di entrambi. Questo processo di riscaldamento richiede un elevato dispendio di energia, di cui solo il 20-25% è utilizzato per riscaldare il cibo in preparazione. I forni nello specifico sono responsabili di circa il 10-12% dell’impatto ambientale complessivo degli edifici civili, collocandosi tra i peggiori elettrodomestici in termini di efficienza energetica. A ragione di ciò, l’industria dei forni è stimolata a sviluppare tecnologie sempre più efficienti, attraverso la ricerca di un miglior controllo della temperatura interna del forno. Sono state redatte due normative europee, EN 60350 e EN 50304, che stabiliscono procedure di raccolta dati e calcolo dell’efficienza energetica di un forno per guidare i costruttori verso una progettazione a minor impatto energetico, che permetta loro di restare competitivi sul mercato. L’obiettivo del seguente lavoro bibliografico è stato quello di descrivere in maniera dettagliata le normative inerenti la determinazione dell’efficienza energetica dei forni domestici. Inoltre, è stata redatta una rassegna sistematica degli studi scientifici riguardanti la valutazione del consumo energico mediante modelli matematici.
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
Il Routing rappresenta uno dei problemi più studiati nell’ambito della Ricerca Operativa in quanto offre molteplici possibilità di ottimizzazione da cui possono derivare altrettanti vantaggi per le aziende che decidono di gestirlo in maniera strutturata. Uno dei principali ambiti di applicazione del routing è la pianificazione operativa del trasporto merci a clienti sparsi in un determinato territorio. Ci sono aziende che devono organizzare la loro Logistica distributiva ogni giorno. Ormai è diventato evidente che la realizzazione di questo processo mediante modalità “standard”, senza l’utilizzo di appositi strumenti di ottimizzazione, non solo porta alla perdita di occasioni importanti in termini di vantaggi raggiungibili, ma è anche molto più dispendiosa a livello di tempo richiesto. Molte aziende si stanno quindi affidando a soluzioni SW che si vadano ad integrare con i loro processi decisionali. Questi sistemi hanno alla base delle componenti algoritmiche in grado di trovare la migliore soluzione possibile per la tipologia specifica di Routing da affrontare. Per questi motivi, lo sviluppo di algoritmi in grado di risolvere questo problema rappresenta una parte consistente della letteratura scientifica in ambito di ottimizzazione. In questo elaborato si andranno a definire le principali caratteristiche di un problema di Routing in forma base e nelle sue varianti principali. Si descriveranno le caratteristiche dei problemi di Routing incontrati da Optit S.r.l, un’azienda che opera nel settore dello sviluppo di soluzioni SW di ottimizzazione. Nel fare ciò, si cercherà di trovare sovrapposizione con quanto descritto in letteratura. Infine, si descriveranno alcuni solver Open-Source per risolvere problemi di Routing e si mostreranno i risultati da essi ottenuti su alcuni casi di interesse industriale.
Resumo:
Il progetto di questa tesi si propone di realizzare una protesi sostitutiva del muscolo temporale la cui funzione principale è colmare il vuoto lasciato dal muscolo dopo la sua rimozione. A seguito di un’analisi sulla forma, sul materiale e le funzionalità della protesi attualmente utilizzata, vengono evidenziati i benefici che devono essere inclusi nel progetto e le debolezze a cui porre maggior attenzione e valutare possibili soluzioni. La protesi deve presentare una superficie esterna priva di discontinuità che potrebbero essere percepite al tatto in post operazione e una dimensione conforme al muscolo rimosso. Il progetto si propone di fissare alcuni punti chiave a cui dare risposta, una su tutte la tipologia di materiale utilizzato per garantire una buona integrazione dell’impianto con l’organismo umano. Il materiale utilizzato deve essere innanzitutto biocompatibile e viene valutato per la sua integrazione con l’organismo, la capacità di proteggere la parete laterale del cranio e per la sua consistenza il più possibile paragonabile al muscolo rimosso. È prioritario in questa tipologia di protesi evitare il ristagno di sangue tra l’intercapedine della protesi e la parete laterale del cranio, a tal fine è bene analizzare lo spessore del muscolo segmentato per delineare la soluzione migliore che possa rispondere a tale necessità. È importante verificare il bordo della protesi, è necessario che sia ben raccordato con la superficie esterna del cranio così da evitare uno scalino a seguito dell’operazione e ottenere un alto grado di soddisfazione del paziente. In questo contesto di protesi il grado di soddisfazione del paziente è importante. Il lato su cui viene impiantata la protesi deve risultare simmetrico al lato opposto. La protesi progettata è di tipo paziente-specifico, l’obbiettivo principale è riempire la cavità temporale ed evitare possibili complicazioni nel tempo in quanto la durata della protesi è correlata alla durata di vita del paziente.