975 resultados para teoria dei giochi motivazione scuola secondaria secondo grado sperimentazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi ha come oggetto la riqualificazione energetica e funzionale della scuola media statale “P. Amaducci” di Bertinoro e la realizzazione, all’interno della stessa area, di una scuola elementare che condivida, con la struttura esistente, spazi per attività parascolastiche e sportive. Il lotto di intervento è situato ai margini del centro urbano, circondato da un’area identificata dalla pubblica amministrazione come di possibile espansione residenziale; esso presenta diverse criticità, tra cui la poca sicurezza dei percorsi pedonali, la frammentarietà del sistema degli spazi aperti, la mancanza di adeguate aree di sosta e di parcheggio. Grazie alla sua posizione elevata e alla collocazione all’interno di un ambito di interesse paesaggistico, dall’area si gode di un’ampia visuale sul territorio circostante, caratterizzato dalla coltivazione della vite. L’attuale scuola media statale “P. Amaducci”, realizzata nel 1990, è un edificio di circa 17800 mc con disposizione planimetrica a corte aperta, sviluppato su tre piani, ad est del quale nel 2000 è stato collocato un edificio a blocco di 12000 mc, che ospita un palazzetto dello sport di rilevanza provinciale. Nonostante la sua recente costruzione, la struttura presenta diverse carenze progettali, tra cui lo sfavorevole orientamento delle aule per la didattica, che determina un elevato livello di discomfort, la scarsa prestazione energetica che colloca l’edificio in classe energetica E, e il generale sovradimensionamento del complesso e dei singoli spazi interni (circa 180% di spazio in più rispetto a quanto previsto dal D.M.del 1975 sull’edilizia scolastica. La scuola era originariamente progettata per ospitare tre sezioni, per un totale di 225 alunni; attualmente è frequentata da solo 132 studenti, con conseguente mancata utilizzazione di una parte consistente dell’edificio. Gli obiettivi dell’intervento sono quelli fissati dall’Amministrazione comunale e consistono essenzialmente in: - Riunificazione della scuola media con la scuola elementare in un unico polo scolastico, mettendo in comune una serie di ambienti quali l'auditorium, la mensa, le aule speciali, l’adiacente palazzetto dello sport. - Realizzazione di un ampliamento per la nuova scuola elementare, con capacità di 10 aule. Esso andrebbe realizzato a monte dell'attuale scuola media favorendo un ingresso separato dei due ordini di scuola. - Revisione di alcune soluzioni progettuali ed energetiche errate o non funzionali presenti nell'attuale struttura. A seguito di alcune analisi effettuate sulla popolazione di Bertinoro e sull’accesso ai plessi scolastici dalle frazioni vicine (Fratta Terme, Capocolle, Panighina) è emersa la scarsa dinamica demografica del comune, la quale ha suggerito di prevedere la riduzione degli spazi destinati alla scuola media e l’utilizzo dei locali eccedenti per ospitare aule per la didattica ad uso della nuova scuola elementare, prevedendo inoltre l’uso congiunto degli spazi per attività parascolastiche tra le due scuole (mensa, biblioteca, auditorium e palestra) e progettando un ampliamento per ospitare le altre attività necessarie al funzionamento della nuova scuola elementare. Il progetto ha assunto la sostenibilità e il minimo impatto sull’ambiente come principi generatori gli elementi del contesto naturale come risorse: mantiene l’edificio adagiato sul declivio del terreno e valorizza la vista verso la vallata circostante, in modo da aprirlo sul paesaggio. Per limitare una delle criticità funzionali rilevate, il progetto si è proposto di separare i percorsi pedonali da quelli carrabili inserendo zone filtro con la funzione di proteggere l’accesso al polo scolastico e al palazzetto dello sport e, al fine di evitare la promiscuità delle utenze, di differenziare altimetricamente gli ingressi dei diversi edifici e di prevedere due parcheggi, uno a monte dell’area (di pertinenza della nuova scuola primaria), e uno a valle (ad uso degli utenti della scuola secondaria di primo grado e della palestra). Nella nuova configurazione spaziale dell’edificio esistente, le aule per la didattica sono collocate sul fronte principale orientato a sud-est e dotate di ampie aperture provviste di schermature studiate sulla radiazione solare locale. Per raggiungere un ottimo livello di illuminamento si è “scavato” un canale di luce all’interno dell’edificio, che fornisce alle aule un apporto di luce naturale aggiuntivo rispetto a quello che entra dalle facciate. Sul fronte nord-ovest si localizzano invece le aule speciali e i servizi, affacciati sulla corte. L’ingresso e il vano scala esistenti, in rapporto al volume ridimensionato della scuola media, risultano così in posizione baricentrica. La tesi presenta due diverse ipotesi di ampliamento, che prevedono entrambe la collocazione dei nuovi volumi a monte dell’edificio esistente, connessi ad esso tramite lo spazio dell’ingresso e la localizzazione di quattro aule per la didattica in una parte dell’edificio esistente. Il primo progetto di ampliamento si propone di ridefinire e valorizzare la corte interna attraverso l’inserimento a monte dell’edificio esistente di un volume su un solo piano, che si va ad inserire nel profilo della collina, secondo il principio del minimo impatto sul paesaggio circostante. Il secondo progetto di ampliamento punta invece sulla continuità visiva tra gli spazi aperti e il paesaggio: per questo si è collocato il nuovo volume, che si sviluppa su due piani (nella ricerca di un ottimale rapporto di forma) in adiacenza all’edificio esistente,dando luogo ad un ampio spazio verde su cui si affacciano le aule esposte a sud-est.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del presente progetto di ricerca era determinare se l’utilizzo non clinico del simulatore d’alba (un dispositivo che emette luce in graduale aumento prima del risveglio), basato su specifiche conoscenze cronobiologiche, potesse ridurre alcune delle conseguenze del social jetlag, in studenti di scuola secondaria di secondo grado. A tal fine, sono stati valutati gli effetti del simulatore d’alba su tono dell’umore (valutato soggettivamente tramite la Global and Vigor Affect Scale-GVA), livelli di attivazione (valutati soggettivamente tramite la GVA), qualità/quantità di sonno (valutate oggettivamente e soggettivamente tramite attigrafia e Mini Sleep Questionnaire-MSQ), architettura del sonno (valutata oggettivamente tramite Zeo®) ed efficienza dei tre network attentivi (alerting, orienting ed executive), valutata oggettivamente tramite l’Attention Network Test (ANT). In totale, hanno preso parte alla ricerca 56 adolescenti (24 femmine e 32 maschi), frequentanti due istituti di scuola secondaria di secondo grado nella città di Cesena, la cui età media era di 17.68 anni (range d’età 15-20 anni). Ad ogni studente è stata richiesta una partecipazione di 5 settimane consecutive ed il disegno di ricerca prevedeva 3 condizioni sperimentali: baseline, simulatore d’alba e controllo. All’MSQ, in seguito all’utilizzo del simulatore d’alba, sono state osservate una minore percezione di sonnolenza diurna, una frequenza inferiore di risvegli notturni ed una riduzione del numero di partecipanti che presentavano una cattiva qualità della veglia. All’ANT, è stato documentato un significativo miglioramento dell’efficienza del network attentivo dell’alerting, successivo all’impiego del simulatore d’alba, dovuto ad una maggiore reattività dei partecipanti in seguito alla comparsa del double cue, che anticipava la presentazione del target (freccia centrale di cui i partecipanti dovevano giudicare la direzione). Tali risultati convergono nell’evidenziare la capacità del simulatore d’alba di esercitare un effetto attivante/stimolante, mostrando dunque come esso possa essere considerato uno strumento potenzialmente utilizzabile quale contromisura al social jetlag in adolescenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è di esporre il cuore centrale della teoria di Galois, la risolubilità per radicali delle equazioni polinomiali nel caso in cui il campo di partenza abbia caratteristica 0. L’operato è articolato in tre capitoli. Nel primo capitolo vengono introdotte le nozioni fondamentali della teoria dei campi e della teoria di Galois. Nel secondo capitolo, si sviluppa il problema della risolubilità per radicali. Vengono prima introdotti i gruppi risolubili e alcune loro particolarità. Poi vengono introdotte le nozioni di estensioni radicali e risolubili e relativi teoremi. Nel paragrafo 2.3 viene dimostrato il teorema principale della teoria, il teorema di Galois, che identifica la risolubilità del gruppo di Galois con la risolubilità dell’estensione. Infine l’ultimo paragrafo si occupa della risolubilità dei polinomi, sfruttando il loro campo di spezzamento. Nel terzo ed ultimo capitolo, viene discussa la risolubilita` dell’equazione polinomiale generale di grado n. Vengono inoltre riportati diversi esempi ed infine viene presentato un esempio di estensione di Galois di grado primo p non risolubile in caratteristica p.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il tema dell'innovazione della scuola, oggetto di costante attenzione da parte delle organizzazioni internazionali e dei sistemi educativi nazionali, per le sue implicazioni economiche, sociali e politiche, e intende portare un contributo allo studio sistematico e analitico dei progetti e delle esperienze di innovazione complessiva dell'ambiente di apprendimento. Il concetto di ambiente di apprendimento viene approfondito nelle diverse prospettive di riferimento, con specifica attenzione al framework del progetto "Innovative Learning Environments" [ILE], dell’Organisation For Economic And Cultural Development [OECD] che, con una prospettiva dichiaratamente olistica, individua nel dispositivo dell’ambiente di apprendimento la chiave per l’innovazione dell’istruzione nella direzione delle competenze per il ventunesimo Secolo. I criteri presenti nel quadro di riferimento del progetto sono stati utilizzati per un’analisi dell’esperienza proposta come caso di studio, Scuola-Città Pestalozzi a Firenze, presa in esame perché nell’anno scolastico 2011/2012 ha messo in pratica appunto un “disegno” di trasformazione dell’ambiente di apprendimento e in particolare dei caratteri del tempo/scuola. La ricerca, condotta con una metodologia qualitativa, è stata orientata a far emergere le interpretazioni dei protagonisti dell’innovazione indagata: dall’analisi del progetto e di tutta la documentazione fornita dalla scuola è scaturita la traccia per un focus-group esplorativo attraverso il quale sono stati selezionati i temi per le interviste semistrutturate rivolte ai docenti (scuola primaria e scuola secondaria di primo grado). Per quanto concerne l’interpretazione dei risultati, le trascrizioni delle interviste sono state analizzate con un approccio fenomenografico, attraverso l’individuazione di unità testuali logicamente connesse a categorie concettuali pertinenti. L’analisi dei materiali empirici ha permesso di enucleare categorie interpretative rispetto alla natura e agli scopi delle esperienze di insegnamento/apprendimento, al processo organizzativo, alla sostenibilità. Tra le implicazioni della ricerca si ritengono particolarmente rilevanti quelle relative alla funzione docente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto di questa tesi è la riqualificazione sostenibile dell’edificio ospitante la Scuola secondaria di I grado “Il Guercino”, sita all’interno del quartiere Savena, nel Comune di Bologna, ai confini con quello di San Lazzaro di Savena. L’edificio, esito di un modo di fare architettura legato ad un contesto storico e professionale precisamente definito (quello dell’amministrazione pubblica bolognese nel quindicennio 1970-’85), presenta principi compositivi e soluzioni tecnologiche non scontate e per certi versi pregevoli, se contestualizzate nel momento della sua realizzazione. L’intervento di riqualificazione progettato affronta in primo luogo la riorganizzazione funzionale dell’edificio (anche attraverso un ampliamento) e del sistema delle accessibilità, oggi inadeguati rispetto alle esigenze degli utenti e alle prescrizioni normative. Particolare attenzione è stata dedicata alla possibilità di rendere l’edificio il più possibile fruibile ai portatori di handicap, aspetto non più trascurabile, soprattutto all’interno di un istituto scolastico. In secondo luogo il progetto si occupa del retrofit energetico realizzato tramite alcuni interventi mirati, quali la sostituzione del sistema di involucro verticale e di quello impiantistico: in tal modo si è passati da una classe di prestazione energetica F ad una classe di prestazione energetica A, rendendo sostenibile il consumo energetico e migliorando sensibilmente il livello di comfort degli occupanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I gruppi risolubili sono tra gli argomenti più studiati nella storia dell'algebra, per la loro ricchezza di proprietà e di applicazioni. Questa tesi si prefigge l'obiettivo di presentare tali gruppi, in quanto argomento che esula da quelli usualmente trattati nei corsi fondamentali, ma che diventa fondamentale in altri campi di studio come la teoria delle equazioni. Il nome di tale classe di gruppi deriva infatti dalla loro correlazione con la risolubilità per formule generali delle equazioni di n-esimo grado. Si ha infatti dalla teoria di Galois che un'equazione di grado n è risolubile per radicali se e solo se il suo gruppo di Galois è risolubile. Da questo spunto di prima e grande utilità, la teoria dei gruppi risolubili ha preso una propria strada, tanto da poter caratterizzare tali gruppi senza dover passare dalla teoria di Galois. Qui viene infatti presentata la teoria dei gruppi risolubili senza far uso di tale teoria: nel primo capitolo esporrò le definizioni fondamentali necessarie per lo studio dei gruppi risolubili, la chiusura del loro insieme rispetto a sottogruppi, quozienti, estensioni e prodotti, e la loro caratterizzazione attraverso la serie derivata, oltre all'esempio più caratteristico tra i gruppi non risolubili, che è quello del gruppo simmetrico. Nel secondo capitolo sono riportati alcuni esempi e controesempi nel caso di gruppi non finiti, tra i quali vi sono il gruppo delle isometrie del piano e i gruppi liberi. Infine nel terzo capitolo viene approfondito il caso dei gruppi risolubili finiti, con alcuni esempi, come i p-gruppi, con un’analisi della risolubilità dei gruppi finiti con ordine minore o uguale a 100.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro nasce dall'esigenza di comprendere quali sono gli ostacoli concettuali e metodologici che gli studenti della scuola secondaria di secondo grado incontrano nello studio delle dimostrazioni. Tale lavoro è in parte dedicato alla descrizione, mediante la proposizione di ragionamenti scorretti, delle tipologie più diffuse di errori commessi nel condurre una dimostrazione, partendo dall'esplicitazione dei requisiti necessari della stessa in contesto logico. La realizzazione di un’esperienza didattica rivolta a studenti delle classi seconde, ha permesso di concretizzare le ipotesi avanzate durante la fase descrittiva. In particolare ha favorito l’individuazione di ulteriori spunti di riflessione su come condurre lo studio delle dimostrazioni e ha messo in evidenza come un’analisi che prescinde dal piano epistemologico risulta fuorviante e inappropriata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è la trattazione dei logaritmi a partire dalla storia di quest'ultimi, al loro sviluppo, fino ad arrivare alle diverse applicazioni dei logaritmi in svariate discipline. La tesi è strutturata in quattro capitoli, nel primo dei quali si parte analizzando quali istanze teoriche e necessità pratiche abbiano preparato la strada all'introduzione dei logaritmi. Vengono riportati alcuni passi del testo più importante dedicato da Nepero ai logaritmi, Mirifici Logarithmorum Canonis Constructio, la modifica ad opera di Henry Briggs e la diffusione dei logaritmi in gran parte dell' Europa. Nel secondo capitolo viene evidenziato il legame tra i logaritmi e la geometria dell'iperbole per poi passare alla trattazione dei primi studi sulla curva logaritmica. Nel terzo capitolo viene esaminata la controversia tra Leibniz e Bernoulli sul significato da attribuire ai logaritmi dei numeri negativi soffermandosi su come Eulero uscì da una situazione di stallo proponendo una teoria dei logaritmi dei numeri complessi. Nel quarto ed ultimo capitolo vengono analizzati i diversi utilizzi della scala logaritmica ponendo soprattutto l'attenzione sul regolo calcolatore, arrivando infine a mostrare le applicazioni dei logaritmi in altre discipline.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La struttura di gruppo è una delle strutture algebriche più semplici e fondamentali della matematica. Un gruppo si può descrivere in vari modi. Noi abbiamo illustrato la presentazione tramite generatori e relazioni, che consiste sostanzialmente nell'elencare le "regole di calcolo" che valgono nel gruppo considerato, oltre a quelle che derivano dagli assiomi di gruppo. L'idea principale di questa tesi è quella di mostrare come un argomento così tecnico e specifico possa essere reso "elementare" e anche divertente. Siamo partiti dalla costruzione di un gioco, inventando regole da aggiungere di volta in volta. Abbiamo poi tentato di spiegare il medesimo concetto da un punto di vista teorico, tramite la teoria dei gruppi liberi. Si tratta di gruppi che hanno un insieme di generatori soddisfacenti unicamente alle relazioni che sono conseguenza degli assiomi di gruppo.Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. Infine si è illustrato il problema della parola formulato da Max Dhen nel 1911, e si è visto come tale problema è risolubile per i gruppi liberi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attraverso l’analisi di teorie della lettura “centripete” e “centrifughe”, tra fenomenologia, semiotica e teoria della risposta estetica, questa ricerca punta a definire la lettura come un’esperienza estetica di una variabile e plurale letterarietà, o per essere più precisi, come una relazione estetica ad una funzione nel linguaggio, che di volta in volta diviene immanente e trascendente rispetto al linguaggio, immanente nella percepibilità espressiva del segno e trascendente nella sua ristretta finzionalità o fittività, aperta alla dimensione del senso. Così, la letterarietà è vista, dal punto di vista di una teoria della lettura, come una funzione che nega o sovverte il linguaggio ordinario, inteso come contesto normale, ma anche una funzione che permette il supplemento di senso del linguaggio. Ciò rende la definizione di cosa sia letteratura e di quali testi siano considerabili come letterari come una definizione dipendente dalla lettura, ed anche mette in questione la classica dicotomia tra linguaggio standard e linguaggio deviante, di secondo grado e figurativo, comportamento che distinguerebbe la letteratura. Questi quattro saggi vorrebbero dimostrare che la lettura, come una pratica estetica, è l’espressione di una oscillazione tra una Finzione variabile nei suoi effetti ed una Ricezione, la quale è una risposta estetica controllata dal testo, ma anche una relazione estetica all’artefatto a natura verbale. Solo in questo modo può essere compresa la caratteristica paradossale della lettura, il suo stare tra una percezione passiva ed un’attiva esecuzione, tra un’attenzione aspettuale ed una comprensione intenzionale. Queste modalità si riflettono anche sulla natura dialettica della lettura, come una dialettica di apertura e chiusura, ma anche di libertà e fedeltà, risposta ad uno stimolo che può essere interpretato come una domanda, e che presenta la lettura stessa come una premessa dell’interpretazione, come momento estetico. Così una teoria della lettura dipende necessariamente da una teoria dell’arte che si presenta come funzionale, relativa più al Quando vi è arte?/Come funziona? piuttosto che al Che cosa è Arte?, che rende questo secondo problema legato al primo. Inoltre, questo Quando dell’Arte, che definisce l’opera d’arte come un’arte- all’-opera, dipende a sua volta, in un campo letterario, dalla domanda Quando vi è esperienza estetica letteraria? e dalla sue condizioni, quelle di finzione e ricezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è l’analisi e la modellizzazione dei flussi dispersi statorici nelle macchine multifase utilizzando la teoria dei vettori di spazio multipli. L’analisi ed il calcolo del coefficiente di auto induzione di dispersione statorica nei vari spazi è cruciale nella progettazione e nel controllo delle macchine elettriche multifase in quanto, per esempio, essa limita il ripple di corrente quando la macchina non è alimentata con una tensione perfettamente sinusoidale. Il fine è pertanto di giungere alla scrittura di un’equazione che leghi il generico vettore di spazio dei flussi dispersi ai vettori di spazio delle correnti che alimentano la macchina elettrica tramite una costante che contenga i coefficienti di auto e mutua induzione di dispersione in cava degli avvolgimenti statorici.