1000 resultados para Logica simbolica - Matematica
Resumo:
Trattazione del metodo delle tavole semantiche come modello per la ricerca della validità logica o insoddisfacibilità di un enunciato sia proposizionale che predicativo.
Resumo:
Studio del riprofilarsi di due sezioni di spiaggia (protetta e non) secondo diverse condizioni meteo-marine (scenario presente e scenario a breve termine) nella località di Cesenatico. Tale lavoro è stato svolto tramite il software XBeach, riscontrando la sua validità e gettando solide basi per lavori futuri in altre località.
Resumo:
Questa tesi riguarda la formula di Eulero per i poliedri: F - S + V = 2 dove F indica il numero di facce, S il numero di spigoli e V quello dei vertici di un poliedro. Nel primo capitolo tratteremo i risultati ottenuti da Cartesio: egli fu il primo a considerare non solo le caratteristiche geometriche ma anche metriche di un solido. Partendo dall'analogia con le figure piane, riuscì a ricavare importanti relazioni nei solidi convessi, riguardanti il numero e la misura degli angoli piani, degli angoli solidi e delle facce. Non arrivò mai alla formulazione conosciuta oggi ma ne intuì le caratteristiche topologiche, che però non dimostrò mai. Nel secondo capitolo invece ci occuperemo di ciò che scoprì Eulero. Il manoscritto contenente i risultati di Cartesio era scomparso e quindi questi non erano più conosciuti dai matematici; Eulero, in accordo con quanto avviene per i poligoni, desiderava ottenere un metodo di classificazione per i poliedri e si mise a studiare le loro proprietà. Oltre alla sua formula, in un primo articolo ricavò importanti relazioni, e in un secondo lavoro ne propose una dimostrazione. Riportiamo in breve anche un confronto tra il lavoro di Cartesio e quello di Eulero. Il terzo capitolo invece riguarda il metodo e il rigore nella formulazione di teoremi e dimostrazioni: I. Lakatos ne fa un esame critico nel libro "Dimostrazioni e Confutazioni - la logica della scoperta matematica", simulando una lezione dove a tema compaiono la Formula di Eulero e le sue dimostrazioni. Noi cercheremo di analizzare questo suo lavoro. Su questi tre autori e i loro lavori riportiamo alcune considerazioni biografiche e storiche che possono offrire interessanti spunti didattici: infatti nel quarto e ultimo capitolo ci occuperemo di alcune considerazioni didattiche a proposito della Formula. La struttura sarà quella di un'ipotetica lezione a studenti di Scuola Media Inferiore e utilizzeremo i risultati ottenuti nei precedenti capitoli e una personale esperienza di tirocinio.
Resumo:
Nell'elaborato si introduce il calcolo delle equazioni, un particolare linguaggio predicativo contenente come unico simbolo predicativo quello di uguaglianza. Vengono analizzate le funzioni derivabili in questo linguaggio: le funzioni ricorsive parziali e le funzioni ricorsive primitive. Si accenna al lambda-calcolo che è un particolare linguaggio con cui è possibile, per la sua semplicità, esprimere molte teorie, come quella del calcolo delle equazioni. Infine, si studiano i problemi legati alla ricorsività: il problema della fermata e il problema dell'indecidibilità della logica dei predicati.
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.
Resumo:
Questa tesi ripercorre le tappe principali della storia della scuola secondaria italiana, soffermandosi su quelle che hanno caratterizzato l'insegnamento della matematica. Inoltre analizza le caratteristiche delle prove di matematica assegnate alla maturità scientifica fin dalla nascita dell'esame di Stato.
Resumo:
L’oggetto dell'elaborato riguarda l’insegnamento attuale dell’analisi matematica nella scuola secondaria superiore. Si sono esaminate le difficoltà incontrate dagli studenti ed elaborate riflessioni di carattere didattico per operare un insegnamento efficace. Nel primo capitolo sono state messe a punto alcune riflessioni sui fini dell’educazione. Il secondo capitolo si è concentrato sulle difficoltà legate all'insegnamento dell’analisi matematica, esaminando diverse situazioni didattiche verificatesi nel corso del tirocinio svolto nei mesi di Ottobre e Novembre 2013 presso l'Istituto Tecnico Tecnologico di Cesena. Il terzo capitolo opera un confronto fra i diversi approcci all'insegnamento della matematica in generale e dell'analisi in particolare che si presentano nelle diverse scuole secondarie, in particolare nei Licei e negli Istituti Tecnici. Nel quarto capitolo ci si è occupati del livello scolastico successivo, analizzando le differenze che intercorrono tra la scuola secondaria superiore e l’università per quanto riguarda gli stadi dello sviluppo mentale degli studenti, le materie, i metodi di studio e gli obiettivi di apprendimento.
Resumo:
Questo elaborato realizzato assieme alla creazione di un link nel sito "progettomatematic@" tratta dell'infinito in tre modi diversi: la storia, l'applicazione ai frattali e alla crittografia. Inizia con una breve storia dai greci all'antinomia di Russel; poi si parla dei frattali in natura, di misura e dimensione di Hausdorff, polvere di Cantor e fiocco di neve di Koch. Infine si trova un riassunto dei cifrari storici famosi, con particolare attenzione al cifrario di Vernam, alla teoria dell'entropia di Shannon e alla dimostrazione che otp ha sicurezza assoluta.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.
Resumo:
La tesi si occupa di mostrare il progetto messo in atto in una classe dell’ultimo anno di liceo scientifico. Tratta un possibile approccio all’introduzione delle equazioni differenziali mediante la modellizzazione matematica. Si vuole mostrare come lo studio di problemi di diversa natura porti alla costruzione e all’utilizzo di modelli matematici, quali le equazioni differenziali. Con questo intervento didattico si propone un percorso che guida gli studenti nel processo della modellizzazione matematica, analizzandone le criticità.
Resumo:
L’oggetto di questa tesi è un fenomeno didattico osservato in due valutazioni standardizzate nazionali INVALSI, legato all’atteggiamento degli studenti mentre svolgono task di matematica. L’effetto, che abbiamo denotato effetto “età della Terra”, è stato interpretato in questa ricerca attraverso l’interazione e il confronto di diversi costrutti teorici che spiegano come questo effetto, che può essere considerato come una tipica situazione di contratto didattico, è generato dalla relazione studente-insegnante ma può diventare più strettamente legato al rapporto che hanno gli studenti con la matematica. Inizialmente abbiamo condotto uno studio dei risultati statistici delle valutazioni standardizzate nazionali (Rash Analysis). Il primo step della sperimentazione è consistito nella preparazione, validazione e somministrazione di 612 questionari a studenti di diversi livelli scolastici e basandoci sui risultati dei questionari abbiamo condotto interviste di gruppo. L’analisi quantitativa e qualitativa dei risultati ha confermato la presenza dell’effetto “età della Terra” e ha mostrato che questo effetto è indipendente dal livello scolastico e dall’età degli studenti, dal contenuto matematico e dal contesto dei task proposti. La seconda parte della ricerca è stata volta ad indagare la cause di questo effetto. Abbiamo infatti individuato un principio regolativo che condizione l’azione degli studenti mentre fanno attività matematica e abbiamo condotto molte interviste individuali per indagarlo. Il comportamento degli studenti intervistati è stato così studiato e classificato con i costrutti del quadro teorico.
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
In questa tesi si intende presentare le logiche proposizionali polivalenti con alcuni esempi: esse sono estensioni dalla logica classica a insiemi (in generale ancora finiti come in questa tesi) di valori di verità maggiori di due. La sintassi è la stessa ma non la semantica, rappresentata però sempre da tavole di verità o interpretazioni. Nel primo capitolo sono presentate le definizioni e gli elementi della logica classica che serviranno per studiare questo nuovo tipo di logiche. Nel secondo capitolo è esposto l'esempio di una logica a quattro valori. Si dimostra la completezza di questo calcolo, in una forma diversa rispetto alla logica classica usando tecniche simili. Non valgono infatti il principio del terzo escluso e la Legge di Lewis. Si analizza la validità delle regole del calcolo della deduzione naturale e la riscrittura delle leggi di De Morgan. Nell'ultimo capitolo si affrontano le logiche a n valori con n>2 e varianti a tre valori (vero, falso e indefinito) con i principali esempi di Lukasiewicz-Tarski, Kleene, Priest e Bochvar. Nelle conclusioni si ricordano alcune applicazioni di questo tipo di logiche facendo riferimento alla meccanica quantistica, all'informatica e all'elettronica.