999 resultados para indirizzo :: 992 :: Curriculum C: Sistemi e reti
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.
Resumo:
Scopo di questa tesi è verificare se, testi di matematica modificati da un punto di vista grafico e senza variazioni a livello di competenze matematiche richieste, possano facilitare i ragazzi con Disturbi Specifici di Apprendimento (DSA). Aspetti non legati alla matematica, come la difficoltà a leggere il testo troppo lungo, a ricordare o sapere il significato di alcune parole, a non avere una immagine di riferimento, bloccano il ragazzo impedendo all’insegnante una corretta valutazione. Viene presentata dapprima una parte teorica sui disturbi e sulle leggi che tutelano i ragazzi, in seguito viene analizzata nel dettaglio la parte sperimentale, riportando un’analisi di quanto emerso da interviste semi-strutturate e questionari posti a ragazzi DSA di diverse associazioni.
Resumo:
La prima parte della tesi è un’introduzione storica alle idee che hanno condotto alla nascita e allo sviluppo del calcolo integrale. Nel secondo capitolo sono trattate questioni didattiche riguardo l’insegnamento di questo argomento nella scuola secondaria. Il terzo capitolo, la parte principale della tesi, espone e analizza i risultati di un questionario somministrato a 184 studenti dell’ultimo anno dei licei scientifici, per verificare il livello di apprendimento del concetto di integrale e metterene in evidenza alcune criticità.
Resumo:
La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.
Resumo:
Lo scopo di questa tesi è quello di verificare il livello di conoscenza riguardo alla trigonometria negli studenti del 4 anno della Scuola Secondaria di II grado e in quelli iscritti al primo anno del corso di studi in Matematica. Per analizzare al meglio le conoscenze che dovrebbero avere gli studenti, è stato osservato come affrontano questo argomento i libri di testo della scuola e quelli universitari. Sono stati osservati anche gli esercizi proposti dai libri, gli obiettivi di apprendimento e le indicazioni nazionali previste dal ministero.
Resumo:
Questa tesi espone il mio lavoro all'interno del progetto di ricerca del FAMT&L, progetto sviluppato dal dipartimento di Matematica e dal dipartimento di Scienze dell'Educazione sulla valutazione formativa in matematica, finanziato dall'Unione Europea e svolto in collaborazione con Francia, Svizzera, Olanda e Cipro. Questo progetto di ricerca è centrato sulla formazione degli insegnanti alla valutazione formativa. L'obiettivo è quello di formare gli insegnanti a fare valutazione formativa in matematica. Lo strumento scelto è quello di lavorare su video di situazioni in classe. Il mio lavoro di tesi è consistito nell'analizzare le situazioni dei video per trovare delle categorie relative ai contenuti, alle competenze matematiche e alle caratteristiche dell'apprendimento della matematica. Questi materiali saranno utilizzati come materiale nella formazione insegnanti.
Resumo:
Scopo di questo elaborato è affrontare lo studio di luoghi geometrici piani partendo dagli esempi più semplici che gli studenti incontrano nel loro percorso scolastico, per poi passare a studiare alcune curve celebri che sono definite come luoghi geometrici. Le curve nell'elaborato vengono disegnate con l'ausilio di Geogebra, con il quale sono state preparate delle animazioni da mostrare agli studenti. Di alcuni luoghi si forniscono dapprima le equazioni parametriche e successivamente, attraverso il teorema di eliminazione e il software Singular, viene ricavata l'equazione cartesiana.
Resumo:
Il concetto di funzione è tra i più rilevanti, ma anche tra i più controversi concetti matematici. In questo lavoro di tesi si è esaminato questo concetto a partire dalle sue origini fino ad arrivare alla definizione bourbakista, che è quella insegnata a tutti gli studenti a partire dalla scuola secondaria fino ad arrivare all'università. Successivamente si è analizzato in che modo questo delicato concetto viene presentato agli studenti delle scuole secondarie di secondo grado, osservando come le recenti Indicazioni Nazionali e Linee Guida danno suggerimenti per affrontare questo argomento, anche esaminando alcuni libri di testo. Infine si è descritto come il concetto di funzione abbia preso, in tempi relativamente recenti, un respiro più ampio dando luogo all'analisi funzionale, laddove le funzioni non sono più viste come corrispondenza punto a punto ma come oggetti che vengono osservati globalmente. Si considereranno infatti nuovi spazi i cui elementi sono funzioni.
Resumo:
Perché uno studente, con quoziente intellettivo nella media, che ha buoni voti in tutte le materie, colleziona insuccessi in matematica? Si può trattare di difficoltà di apprendimento passeggere su un dato argomento, può essere un atteggiamento negativo nei confronti della materia o può trattarsi di discalculia. L'insegnante di matematica deve essere preparato ad individuare le possibili cause dell'insuccesso scolastico degli studenti e ad attuare le strategie didattiche che migliorino il più possibile il suo percorso scolastico. Nel mio elaborato ho riportato una sintesi delle leggi che hanno condotto la scuola italiana ad orientarsi in una prospettiva sempre più inclusiva. In particolare ho riportato la legge 170 del 2010, la prima che definisce i disturbi dell'apprendimento, e la direttiva Bes del 2012, che amplia ancora di più l'area delle problematiche scolastiche. Partendo da una distinzione tra disturbo e difficoltà nell'apprendimento, ho trattato poi in particolare la discalculia, dal punto di vista didattico e riportando le sue definizioni nel corso del tempo. Tra le difficoltà ho citato invece la Matofobia o Math Anxiety. Una paura della matematica ereditata, un'eredità trasmessa però attraverso l'ambiente in cui si cresce e non dai geni. Infine ipotizzando delle lezioni in una classe di seconda superiore in cui sono presenti studenti con discalculia, ho realizzato un'unità didattica dal titolo "Le rette nel piano cartesiano". Per la sua realizzazione ho pensato all'utilizzo del software geogebra e del lavoro in gruppi, per promuovere l'apprendimento attraverso la scoperta e il ragionamento logico, piuttosto che la memorizzazione di formule e la loro mera applicazione. Ho concluso il mio elaborato riportando delle riflessioni su come i docenti si attivano in presenza di uno studente con certificazione di dsa e sul rapporto tra scuola e famiglie, riflessioni tratte da alcune interviste fatte ai referenti per i dsa in diverse scuole della Romagna.
Resumo:
Questo lavoro di tesi nasce all’interno del nucleo di ricerca in didattica della fisica dell’Università di Bologna, coordinato dalla professoressa Olivia Levrini e che coinvolge docenti di matematica e fisica dei Licei, assegnisti di ricerca e laureandi. Negli ultimi anni il lavoro del gruppo si è concentrato sullo studio di una possibile risposta all'evidente e pressante difficoltà di certi docenti nell'affrontare gli argomenti di meccanica quantistica che sono stati introdotti nelle indicazioni Nazionali per il Liceo Scientifico, dovuta a cause di vario genere, fra cui l'intrinseca complessità degli argomenti e l'inefficacia di molti libri di testo nel presentarli in modo adeguato. In questo contesto, la presente tesi si pone l’obiettivo di affrontare due problemi specifici di formalizzazione matematica in relazione a due temi previsti dalle Indicazioni Nazionali: il tema della radiazione di corpo nero, che ha portato Max Planck alla prima ipotesi di quantizzazione, e l’indeterminazione di Heisenberg, con il cambiamento di paradigma che ha costituito per l’interpretazione del mondo fisico. Attraverso un confronto diretto con le fonti, si cercherà quindi di proporre un percorso in cui il ruolo del protagonista sarà giocato dagli aspetti matematici delle teorie analizzate e dal modo in cui gli strumenti della matematica hanno contribuito alla loro formazione, mantenendo un costante legame con le componenti didattiche. Proprio in quest'ottica, ci si accorgerà della forte connessione fra i lavori di Planck e Heisenberg e due aspetti fondamentali della didattica della matematica: l'interdisciplinarietà con la fisica e il concetto di modellizzazione. Il lavoro finale sarà quindi quello di andare ad analizzare, attraverso un confronto con le Indicazioni Nazionali per il Liceo Scientifico e con alcune esigenze emerse dagli insegnanti, le parti e i modi in cui la tesi risponde a queste richieste.
Resumo:
Sono studiati nel dettaglio, sia dal punto di vista matematico che con un certo inquadramento storico, i capitoli quinto e sesto del volume ''Le operazioni distributive e le loro applicazioni all'analisi'' di Salvatore Pincherle. La tesi si inserisce in un progetto più ampio di studio ed è già stata preceduta da un'altra tesi magistrale dedicata ai primi capitoli del libro.
Resumo:
La TiO2 è uno dei materiali più studiati degli ultimi decenni. I motivi sono da ricercarsi nelle sue numerose applicazioni, possibili in molti campi come dispositivi fotovoltaici, depurazione da agenti inquinanti o filtraggio di raggi UV. Per le celle elettrochimiche in particolare, il biossido di titanio offre molti vantaggi, ma non è privo di ostacoli. Il limite principale è lo scarso assorbimento dello spettro visibile, dovuto all’energy gap elevato (circa 3.2 eV). La ricerca da diversi anni si concentra sul tentativo di aumentare l’assorbimento di luce solare: promettenti sono i risultati raggiunti grazie alla forma nanoparticellare della TiO2, che presenta proprietà diverse dal materiale bulk. Una delle strategie più studiate riguarda il drogaggio tramite impurità, che dovrebbero aumentare le prestazioni di assorbimento del materiale. Gli elementi ritenuti migliori a questo scopo sono il vanadio e l’azoto, che possono essere usati sia singolarmente che in co-doping. In questo lavoro abbiamo realizzato la crescita di nanoparticelle di V-TiO2, tramite Inert Gas Condensation. La morfologia e la struttura atomica sono state analizzate attraverso microscopia a trasmissione, analizzandone la mappe tramite image processing. Successivamente abbiamo studiato le proprietà di assorbimento ottico dei campioni, nello spettro visibile e nel vicino ultravioletto, attraverso il metodo della riflettanza diffusa, determinando poi il bandgap tramite Tauc Plot. L’esperimento centrale di questo lavoro di tesi è stato condotto sulla beamline ID26 dell’European Synchrotron Radiation Facility, a Grenoble. Lì, abbiamo effettuato misure XANES, allo scopo di studiare gli stati fotoeccitati del materiale. L’eccitazione avveniva mediante laser con lunghezza d’onda di 532 nm. Tramite gli spettri, abbiamo analizzato la struttura locale e lo stato di ossidazione del vanadio. Le variazioni indotta dal laser hanno permesso di capire il trasferimento di carica e determinare la vita media.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità e una sostanziale disomogeneità prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità di ottimizzare l'allocazione delle unità operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.