586 resultados para DSA,problemi matematici,didattica personalizzata e individualizzata,consegne modificate
Resumo:
Questo elaborato nasce dalla necessità di approfondire, formare e informare su BES e DSA, che è ormai parte della realtà scolastica di oggi ed in continua evoluzione ed aggiornamento. In particolare è utile per entrare nel mondo dell'insegnamento, conoscere e studiare alcune strategie e strumenti didattici che facilitano chi presenta DSA e le conseguenze nell'ambito matematico, in modo tale da evitare il senso di incapacità e inadeguatezza che a volte accompagna questi ragazzi durante gli studi, portandoli ad esperienze negative. Nel primo capitolo si definisce il significato di BES, la sua classificazione e legislazione nel corso degli anni, con un excursus storico che tratta i temi dell'inclusione e integrazione. Nel secondo capitolo si definiscono i DSA e le diverse tipologie del disturbo e si fa riferimento alla Legge 170 del 2010, che prevede misure educative e didattiche e interventi individualizzati e personalizzati da attuare nei confronti di studenti con DSA, previsti nel PDP. Vengono presentati anche i dati raccolti dal MIUR per quanto riguarda le statistiche sulla popolazione scolastica con DSA. Il secondo capitolo si conclude con una visione su quello che è il tema degli stereotipi legati al mondo dei DSA e dei relativi effetti psicologici che ne conseguono. Il terzo capitolo entra nel merito dell'insegnamento della matematica per alunni con discalculia nella scuola secondaria di secondo grado e lo studio di quelle che sono le difficoltà che si possono incontrare. Nel quarto capitolo viene presentato un questionario in versione studenti e versione docente, con l'obiettivo di rilevare il livello di informazione diffusa tra gli studenti e i docenti della scuola secondaria di secondo grado e l'importanza percepita di essere aggiornati sul tema. Nel quinto capitolo viene presentato un esempio di Unità di Apprendimento, con percorso individualizzato per studenti con DSA, sui polinomi e i prodotti notevoli in particolare.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.
Resumo:
L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
Uno degli obiettivi più ambizioni e interessanti dell'informatica, specialmente nel campo dell'intelligenza artificiale, consiste nel raggiungere la capacità di far ragionare un computer in modo simile a come farebbe un essere umano. I più recenti successi nell'ambito delle reti neurali profonde, specialmente nel campo dell'elaborazione del testo in linguaggio naturale, hanno incentivato lo studio di nuove tecniche per affrontare tale problema, a cominciare dal ragionamento deduttivo, la forma più semplice e lineare di ragionamento logico. La domanda fondamentale alla base di questa tesi è infatti la seguente: in che modo una rete neurale basata sull'architettura Transformer può essere impiegata per avanzare lo stato dell'arte nell'ambito del ragionamento deduttivo in linguaggio naturale? Nella prima parte di questo lavoro presento uno studio approfondito di alcune tecnologie recenti che hanno affrontato questo problema con intuizioni vincenti. Da questa analisi emerge come particolarmente efficace l'integrazione delle reti neurali con tecniche simboliche più tradizionali. Nella seconda parte propongo un focus sull'architettura ProofWriter, che ha il pregio di essere relativamente semplice e intuitiva pur presentando prestazioni in linea con quelle dei concorrenti. Questo approfondimento mette in luce la capacità dei modelli T5, con il supporto del framework HuggingFace, di produrre più risposte alternative, tra cui è poi possibile cercare esternamente quella corretta. Nella terza e ultima parte fornisco un prototipo che mostra come si può impiegare tale tecnica per arricchire i sistemi tipo ProofWriter con approcci simbolici basati su nozioni linguistiche, conoscenze specifiche sul dominio applicativo o semplice buonsenso. Ciò che ne risulta è un significativo miglioramento dell'accuratezza rispetto al ProofWriter originale, ma soprattutto la dimostrazione che è possibile sfruttare tale capacità dei modelli T5 per migliorarne le prestazioni.
Resumo:
Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.
Resumo:
Esposizione problemi di Sturm-Liouville regolari 1D e di un metodo di risoluzione per essi, ovvero il metodo della funzione di Green. Definizione di autovalori e autofunzioni per tali problemi e proprietà legate ad essi sfruttando anche le proprietà della funzione di Green, in particolare il risultato più importante sarà quello che le autofunzioni costituiscono una base ortonormale in L^2(I) dove I è un intervallo.
Resumo:
L'obiettivo di questa tesi è di fornire un'introduzione alla teoria dei q-analoghi in ambito combinatorio e alcune sue applicazioni allo studio di problemi legati a successioni numeriche. Lo scopo di questa teoria è quello di ricavare informazioni e proprietà aggiuntive su alcuni oggetti matematici discreti attraverso una loro generalizzazione di tipo polinomiale. In particolare sono proposti alcuni risultati legati al conteggio delle permutazioni di insiemi e multiinsiemi, delle partizioni di interi e dei cammini di Dyck.
Resumo:
In questa tesi presentiamo una nuova proposta didattica che consiste nel fare il calcolo differenziale senza l'utilizzo di infinitesimi.
Resumo:
La financial literacy viene definita dall’Ocse come il processo per mezzo del quale i cittadini migliorano la loro comprensione su prodotti finanziari, i concetti ad essi correlati e i rischi associati e, attraverso l’informazione, l’istruzione e consigli oggettivi, sviluppano le capacità e la fiducia nella propria consapevolezza dei rischi e delle opportunità finanziarie, di sapere dove chiedere aiuto, e intraprendere altre azioni efficaci per migliorare il proprio benessere economico. Attraverso una contestualizzazione sociale, scolastica e metodologica, il lavoro di tesi si propone di indagare i livelli di financial literacy tra gli studenti di quattro classi superiori di diverso grado. Una prima indagine avviene attraverso un pre-test sulle conoscenze finanziarie, cultura e rapporto affettivo con il mondo finanziario. Successivamente viene proposto un percorso composto da tre attività originali riguardanti il “gioco in borsa”, la pianificazione e il futuro, e le leggi finanziarie. Si analizzano: l’applicazione di conoscenze matematiche, i ragionamenti e gli atteggiamenti degli studenti nelle quattro classi.
Resumo:
In questa tesi si affronta analiticamente il problema della stabilità di modelli a più specie interagenti, in campo epidemiologico, per la diffusione ed il controllo di infezioni da virus. Vengono considerati non solo modelli governati da Sistemi Dinamici, ma anche modelli parabolici del tipo Diffusione e Reazione. Partendo dal modello pioneristico SIR di Kermak-McKendrick si affrontano in modo approfondito tutti gli aspetti matematici che permettono di prevenire e controllare la formazione e la gravità di una possibile epidemia. Il modello viene poi articolato con l'aggiunta di considerazioni sulla variazione demografica della popolazione, indicato per questo motivo con il termine endemico. Si generalizza poi questo modello a due possibili applicazioni, includendo nella prima gli effetti della vaccinazione, ottenendo così il nuovo sistema dinamico SIRV. La seconda rappresenta invece uno studio avvenuto agli inizi dell'epidemia da COVID-19, quando i vaccini non erano ancora disponibili. Successivamente viene presentato il recente studio di Bellomo, estensione del modello prototipo per la diffusione di virus, un sistema di tipo Diffusione-Reazione con equazione di tipo diffusione-drift, in cui vengono connessi due aspetti importanti: la propagazione di virus e la chemotassi, in forte analogia con il modello SIR e derivante dalla logica del modello pioneristico di Keller-Segel. Infine, a completamento dello studio analitico, vengono proposti alcuni strumenti dell'analisi numerica, utilizzando l'ambiente MATLAB sul classico modello SIR e su altri due modelli che lo generalizzano per tener conto in un primo tempo della diffusione spaziale della coppia SI e poi solo di S, ma con effetto drift, guidato da I.
Resumo:
L’estrema digitalizzazione ha comportato, recentemente, uno stravolgimento totale in vari ambiti come informazione, socializzazione, compravendita e comunicazione. Alcune aziende, come Meta, Amazon, Google ed Apple si sono rese protagoniste di questa rivoluzione, creando dispositivi e sviluppando piattaforme in grado di attirare una quantità elevatissima di utenti e di connettere individui molto distanti tra loro, abbattendo la barriera costituita dalla distanza. Tuttavia, nonostante la loro importanza economico-sociale e il loro impatto globale, queste aziende hanno fatto ricorso, di tanto in tanto, a pratiche scorrette capaci di metterle in una posizione di vantaggio e, dopo averla conseguita, hanno approfittato del loro status per isolarsi ulteriormente dalla pressione concorrenziale di altre aziende. In questa tesi si cercherà di comprendere se la tecnologia possa favorire un ritorno della concorrenza tra piattaforme ed in quale misura.
Resumo:
In questa tesi mi sono occupata delle funzioni in più variabili che sono un argomento che viene svolto nella scuola secondaria nel caso di due dimensioni. Nei documenti ministeriali, Indicazioni Nazionali e Linee Guida, è previsto che l’argomento delle funzioni in due variabili sia trattato nella classe quinta degli istituti tecnici. Nella scuola secondaria si trattano i seguenti argomenti: dominio, punti stazionari, piano tangente,curve di livello e il grafico di una funzione in due variabili. In questa tesi mi sono occupata di preparare una proposta didattica sull’argomento delle funzioni in due variabili utilizzando il software GeoGebra. Nella unità didattica presento il dominio, i punti stazionari e le curve di livello. In particolare, per spiegare le curve di livello ho deciso di adottare la metodologia didattica della didattica laboratoriale poiché volevo stimolare la curiosità e l’interesse degli alunni. Infatti, ho preparato una esercitazione sulle curve di livello da svolgere in laboratorio, divisi in coppie, con GeoGebra. Nella mia esperienza di tirocinio ho avuto l’opportunità di sperimentare questa unità didattica in una scuola, l’istituto tecnico Belluzzi di Bologna.