247 resultados para didattica ricerca operativa programmazione lineare scuole superiori
Resumo:
L’energia è uno dei più importanti fattori dello sviluppo di ogni attività sociale ed economica. La carenza o addirittura l’assenza di risorse energetiche nazionali non può che incidere negativamente sullo sviluppo di un Paese. La disponibilità, in particolare, di fonti energetiche fossili da valorizzare accortamente influisce positivamente sulle possibilità di sviluppo socio-economico, industriale ed occupazionale di un Paese e quindi sul benessere sociale, oltre a costituire valida alternativa alla loro importazione con ovvi benefici sulla riduzione o addirittura azzeramento della dipendenza da altri Paesi produttori e quindi sulla bilancia dei pagamenti. A causa delle ridotte potenzialità giacimentologiche, tali che la produzione di idrocarburi liquidi e gassosi si attesti attualmente su valori inferiori al 10% rispetto al fabbisogno energetico, l’Italia è altamente dipendente dall’importazione di combustibili fossili e ha quindi evidente necessità di utilizzare appieno le riserve nazionali di idrocarburi oltre che di incrementare la fase di ricerca nell’ottica di scoperta di nuovi giacimenti che possono reintegrare le riserve prodotte. Gli idrocarburi esistenti nel sottosuolo marino nazionale costituiscono una risorsa che contribuisce apprezzabilmente alla sicurezza energetica del Paese, poiché gran parte della percentuale di produzione nazionale deriva da quanto prodotto nell’offshore italiano. L’industria italiana degli idrocarburi ha avuto da sempre particolare attenzione alla ricerca tecnologica, alla capacità tecnico-professionale, alla cultura mineraria nelle sue diverse diramazioni disciplinari, adottando metodologie operative improntate al rigoroso rispetto della normativa nazionale di settore che si colloca tra le più rigide in campo internazionale, sia per quanto riguarda la sicurezza delle operazioni e degli addetti ai lavori sia la tutela ambientale.
Resumo:
Nel cuore di Bologna c’è un posto che attende silenziosamente di essere scoperto per diventare un’occasione di ripensamento della città. BoOM! (Bologna Ospedale Militare) vuole essere una proposta che riesca a coinvolgere in maniera sostenibile le energie del pubblico e del privato con l’intento di riappropriarsi, da parte della città, di un bene comune dalle grandi potenzialità. Il percorso che si sviluppa all’interno di questa tesi parte analizzando la criticità dei vuoti urbani e alcuni tentativi di risposta sperimentati dalle città nel tentativo di ricrearsi un’identità a partire da essi. Alle diverse esperienze in ambito nazionale e internazionale si è poi passati ad un analisi mirata sulla realtà urbana di Bologna, sia dal punto di vista del tessuto socio-economico, che dal punto di vista delle politiche, delle strategie e dei nuovi strumenti legislativi rivolti alla rigenerazione della città. La proposta progettuale che ne scaturisce si concretizza in una metodologia scandita in tre fasi basata su interventi caratterizzati da una loro temporaneità, inseriti in una visione più ampia che si discosta dalla rigidità e dalla lentezza della pianificazione tradizionale. Utilizzare il progetto stesso come strumento di un’analisi che si sviluppa dinamicamente alla ricerca di nuove vocazioni d’uso e per indagare la possibilità di generare nuove relazioni è l’idea che ha dettato lo sviluppo delle prime due fasi progettuali: l’apertura durante gli eventi e l’apertura permanente. La terza fase, ovvero l’intervento sullo spazio esterno, si configura come risposta operativa alle analisi precedenti e come strumento di rammendo urbano nella rete degli spazi pubblici e della mobilità dolce del centro storico. L’ambizione di BoOM! è quella di essere una scintilla in grado di riattivare e rinnovare le energie di questo vuoto nel cuore di Bologna.
Resumo:
Dallo studio della sismicità storica della città di Bologna (Guidoboni e Boschi, 2003) emerge che la maggior parte dei danni causati dai terremoti è concentrata nella parte Nord e Nord-Ovest della città, a nord delle attuali vie S. Donato e S. Isaia. In questo lavoro abbiamo studiato la risposta sismica in diversi siti del centro storico di Bologna, per capirne il comportamento in caso di terremoto e verificare se i risultati fossero compatibili con i dati storici. È stata effettuata una campagna di misure geofisiche: 52 con tecnica passiva a stazione singola HVSR per misurare le frequenze di amplificazione dei sottosuoli (47 all’interno delle mura), 5 in array per misurare l’andamento delle velocità delle onde di taglio nel sottosuolo (tutte all’interno delle mura). 22 delle 47 misure H/V mostrano amplificazione nell’intervallo di frequenze tra 1 e 10 Hz, quello di interesse per le strutture del centro storico. Le cause di queste amplificazioni si ipotizzano essere un livello ghiaioso a circa 10-15 m di profondità (Fiori, 2002) in approfondimento da centro città verso est, e un livello sabbioso a circa 10 m di profondità (Amorosi, 2014). Le misure in array, invece, indicano sostanzialmente che l’estremità orientale della città storica ha rigidezze maggiori a profondità maggiori di 50 m. Il dato derivante dalla sismologia storica, in sintesi, non pare essere completamente supportato da evidenze geologiche o geofisiche: la risposta sismica all’interno delle mura di Bologna varia leggermente da punto a punto, ma senza mostrare trend applicabili ad estese macroaree. Solo l’estremo Nord-Est della città ha un comportamento amplificativo più omogeneo (amplificazione a 1-3 Hz) in linea con la geologia locale, che presenta livelli marcatamente ghiaiosi sotto i 15 m di profondità. La variabilità geologica e di risposta sismica locale è stata verificata essere molto maggiore fuori dalle mura di cinta della città.
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.
Resumo:
All'interno della presente dissertazione vengono illustrate le scelte progettuali e l'implementazione dell'applicazione "PhiloEditor 3.0", un web editor per lo studio filologico delle variati d'autore.
Resumo:
Nell'elaborato viene introdotto l'ambito della Computer Vision e come l'algoritmo SIFT si inserisce nel suo panorama. Viene inoltre descritto SIFT stesso, le varie fasi di cui si compone e un'applicazione al problema dell'object recognition. Infine viene presentata un'implementazione di SIFT in linguaggio Python creata per ottenere un'applicazione didattica interattiva e vengono mostrati esempi di questa applicazione.
Resumo:
L'argomento principale della mia tesi è la LIM, lavagna interattiva multimediale. Ho suddiviso la tesi in due parti: - nella prima descrivo i nativi digitali e in contrapposizione gli immigrati digitali. - nella seconda parte faccio riferimento ad un caso di studio da me effettuato in una scuola primaria
Resumo:
Questo lavoro di tesi nasce all’interno del nucleo di ricerca in didattica della fisica dell’Università di Bologna, coordinato dalla professoressa Olivia Levrini e che coinvolge docenti di matematica e fisica dei Licei, assegnisti di ricerca e laureandi. Negli ultimi anni il lavoro del gruppo si è concentrato sullo studio di una possibile risposta all'evidente e pressante difficoltà di certi docenti nell'affrontare gli argomenti di meccanica quantistica che sono stati introdotti nelle indicazioni Nazionali per il Liceo Scientifico, dovuta a cause di vario genere, fra cui l'intrinseca complessità degli argomenti e l'inefficacia di molti libri di testo nel presentarli in modo adeguato. In questo contesto, la presente tesi si pone l’obiettivo di affrontare due problemi specifici di formalizzazione matematica in relazione a due temi previsti dalle Indicazioni Nazionali: il tema della radiazione di corpo nero, che ha portato Max Planck alla prima ipotesi di quantizzazione, e l’indeterminazione di Heisenberg, con il cambiamento di paradigma che ha costituito per l’interpretazione del mondo fisico. Attraverso un confronto diretto con le fonti, si cercherà quindi di proporre un percorso in cui il ruolo del protagonista sarà giocato dagli aspetti matematici delle teorie analizzate e dal modo in cui gli strumenti della matematica hanno contribuito alla loro formazione, mantenendo un costante legame con le componenti didattiche. Proprio in quest'ottica, ci si accorgerà della forte connessione fra i lavori di Planck e Heisenberg e due aspetti fondamentali della didattica della matematica: l'interdisciplinarietà con la fisica e il concetto di modellizzazione. Il lavoro finale sarà quindi quello di andare ad analizzare, attraverso un confronto con le Indicazioni Nazionali per il Liceo Scientifico e con alcune esigenze emerse dagli insegnanti, le parti e i modi in cui la tesi risponde a queste richieste.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
In questo studio, un multi-model ensemble è stato implementato e verificato, seguendo una delle priorità di ricerca del Subseasonal to Seasonal Prediction Project (S2S). Una regressione lineare è stata applicata ad un insieme di previsioni di ensemble su date passate, prodotte dai centri di previsione mensile del CNR-ISAC e ECMWF-IFS. Ognuna di queste contiene un membro di controllo e quattro elementi perturbati. Le variabili scelte per l'analisi sono l'altezza geopotenziale a 500 hPa, la temperatura a 850 hPa e la temperatura a 2 metri, la griglia spaziale ha risoluzione 1 ◦ × 1 ◦ lat-lon e sono stati utilizzati gli inverni dal 1990 al 2010. Le rianalisi di ERA-Interim sono utilizzate sia per realizzare la regressione, sia nella validazione dei risultati, mediante stimatori nonprobabilistici come lo scarto quadratico medio (RMSE) e la correlazione delle anomalie. Successivamente, tecniche di Model Output Statistics (MOS) e Direct Model Output (DMO) sono applicate al multi-model ensemble per ottenere previsioni probabilistiche per la media settimanale delle anomalie di temperatura a 2 metri. I metodi MOS utilizzati sono la regressione logistica e la regressione Gaussiana non-omogenea, mentre quelli DMO sono il democratic voting e il Tukey plotting position. Queste tecniche sono applicate anche ai singoli modelli in modo da effettuare confronti basati su stimatori probabilistici, come il ranked probability skill score, il discrete ranked probability skill score e il reliability diagram. Entrambe le tipologie di stimatori mostrano come il multi-model abbia migliori performance rispetto ai singoli modelli. Inoltre, i valori più alti di stimatori probabilistici sono ottenuti usando una regressione logistica sulla sola media di ensemble. Applicando la regressione a dataset di dimensione ridotta, abbiamo realizzato una curva di apprendimento che mostra come un aumento del numero di date nella fase di addestramento non produrrebbe ulteriori miglioramenti.
Resumo:
Nella tesi è analizzata nel dettaglio una proposta didattica sulla Fisica Quantistica elaborata dal gruppo di ricerca in Didattica della Fisica dell’Università di Bologna, in collaborazione con il gruppo di ricerca in Fisica Teorica e con ricercatori del CNR di Bologna. La proposta è stata sperimentata in diverse classi V di Liceo scientifico e dalle sperimentazioni sono emersi casi significativi di studenti che non sono riusciti ad accettare la teoria quantistica come descrizione convincente ad affidabile della realtà fisica (casi di non accettazione), nonostante sembrassero aver capito la maggior parte degli argomenti e essersi ‘appropriati’ del percorso per come gli era stato proposto. Da questa evidenza sono state formulate due domande di ricerca: (1) qual è la natura di questa non accettazione? Rispecchia una presa di posizione epistemologica o è espressione di una mancanza di comprensione profonda? (2) Nel secondo caso, è possibile individuare precisi meccanismi cognitivi che possono ostacolare o facilitare l’accettazione della fisica quantistica? L’analisi di interviste individuali degli studenti ha permesso di mettere in luce tre principali esigenze cognitive (cognitive needs) che sembrano essere coinvolte nell’accettazione e nell’apprendimento della fisica quantistica: le esigenze di visualizzabilità, comparabilità e di ‘realtà’. I ‘cognitive needs’ sono stati quindi utilizzati come strumenti di analisi delle diverse proposte didattiche in letteratura e del percorso di Bologna, al fine di metterne in luce le criticità. Sono state infine avanzate alcune proposte per un suo miglioramento.
Resumo:
La presente tesi ha come obiettivo quello di sviluppare un modello per la gestione ottimizzata delle unità di generazione e di accumulo di una microrete elettrica. La tesi analizza, come caso studio di riferimento, una microrete contenente impianti di generazione da fonti rinnovabili, sistemi di accumulo a batteria (BES:Battery Energy System) e stazioni di ricarica per veicoli elettrici. In particolare le stazioni di ricarica sono a flusso bidirezionale, in grado di fornire servizi di tipo "grid-to-vehicle"(G2V) e "vehicle-to-grid" (V2G). Il modello consente di definire, come sistema di dispacciamento centrale, le potenze che le varie risorse distribuite devono erogare o assorbire nella rete nelle 24 ore successive. Il dispacciamento avviene mediante risoluzione di un problema di minimizzazione dei costi operativi e dell'energia prelevata dalla rete esterna. Il problema è stato formulato tramite l'approccio di programmazione stocastica lineare dove i parametri incerti del modello sono modellizzati tramite processi stocastici. L'implementazione del modello è stata effettuata tramite il software AIMMS, un programma di ottimizzazione che prevede al suo interno delle funzionalità specifiche per la programmazione stocastica
Resumo:
All'interno di questo elaborato vengono analizzati gli effetti positivi e negativi dell'introduzione delle nuove tecnologie nel sistema scolastico all'interno della società odierna, definita società della conoscenza; vengono descritte la lavagna interattiva multimediale e successivamente due software didattici, proponendo al termine una proposta di innovazione attuabile nella scuola secondaria di secondo grado, basata su un mio intervento riguardante l'unità didattica della "Retta nel piano cartesiano" e della "Parabola". Il filo conduttore è quello dell'analisi critica nei confronti delle potenzialità che la rivoluzione digitale porta con sé, cercando di riflettere su quello che potrebbe essere il giusto compromesso tra la nostra scuola e i tempi odierni.
Resumo:
Obiettivo della tesi è la realizzazione di un dispositivo in grado di riprodurre il sistema del pendolo inverso e di trovare soluzioni vicine alla posizione di equilibrio stabile. Verranno ricavate le equazioni del moto che descrivono il sistema attraverso la meccanica Lagrangiana. Una volta integrate numericamente le equazioni, si procederà con la ricerca di una funzione di controllo per mantenere in equilibrio il sistema: l'efficacia della soluzione verrà valutata graficamente, senza approfondire l'approccio proveniente dalla teoria del controllo che ne è alla base. Infine il sistema verrà realizzato praticamente ed utilizzeremo le stesse funzioni studiate in precedenza.
Resumo:
In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.