194 resultados para teoria dei nodi esperimento didattico
Resumo:
Le Associazioni Non Profit giocano un ruolo sempre più rilevante nella vita dei cittadini e rappresentano un'importante realtà produttiva del nostro paese; molto spesso però risulta difficile trovare informazioni relative ad eventi, attività o sull'esistenza stessa di queste associazioni. Per venire in contro alle esigenze dei cittadini molte Regioni e Province mettono a disposizione degli elenchi in cui sono raccolte le informazioni relative alle varie organizzazioni che operano sul territorio. Questi elenchi però, presentano spesso grossi problemi, sia per quanto riguarda la correttezza dei dati, sia per i formati utilizzati per la pubblicazione. Questi fattori hanno portato all'idea e alla necessità di realizzare un sistema per raccogliere, sistematizzare e rendere fruibili le informazioni sulle Associazioni Non Profit presenti sul territorio, in modo che questi dati possano essere utilizzati liberamente da chiunque per scopi diversi. Il presente lavoro si pone quindi due obiettivi principali: il primo consiste nell'implementazione di un tool in grado di recuperare le informazioni sulle Associazioni Non Profit sfruttando i loro Siti Web; questo avviene per mezzo dell'utilizzo di tecniche di Web Crawling e Web Scraping. Il secondo obiettivo consiste nel pubblicare le informazioni raccolte, secondo dei modelli che ne permettano un uso libero e non vincolato; per la pubblicazione e la strutturazione dei dati è stato utilizzato un modello basato sui principi dei linked open data.
Resumo:
L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.
Resumo:
Tesi su un esperimento per la realizzazione di una mappa cognitiva sul processo decisionale e gli aspetti cognitivi di una persona durante lo svolgimento di una partita a un videogioco di genere Moba. La tesi presente anche cenni di teoria sulle mappe cognitive, sulle misure di rete e sugli aspetti cognitivi dei videogiochi in generale.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perché effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna
Resumo:
In questo elaborato tratterò il tema della comunicazione non verbale in ambito didattico. Nella prima parte parlerò della comunicazione non verbale e ne presenterò le diverse categorie. Nella seconda parte fornirò delle analisi del linguaggio non verbale della figura dell'insegnante, allo scopo di dimostrare come i codici non verbali incidano nella trasmissione del sapere e siano quindi uno strumento didattico molto importante. Infine tratterò la questione dell'apprendimento dei tratti non verbali tipici di una cultura da parte di studenti di lingua straniera.
Resumo:
In questo lavoro di ricerca ho esaminato la Teoria della Transizione e più nello specifico lo sviluppo di un possibile Living Lab della sostenibilità nel contesto universitario. In primo luogo, ho analizzato la situazione attuale per quanto riguarda lo sviluppo sostenibile in un contesto generale. Inoltre ho dovuto analizzare anche quali sono gli indici che usiamo per definire il benessere umano e su cui basiamo la nostra intera economia, come ad esempio il PIL. In secondo luogo, ho definito la Teoria della Transizione in ambito generale elencandone i vari strumenti di applicazione e i metodi. In fine ho cercato di applicare la Teoria della Transizione nel contesto della sostenibilità in ambito universitario, utilizzando i progetti di Transizione attraverso i Living Lab di “Terracini in Transizione” dell’Università di Bologna e “GOU Living Lab” dell’Università di Utrecht. Dai risultati ottenuti ho definito i limiti e le potenzialità che questi progetti di Living Lab avevano attraverso l’utilizzo della SWOT analysis. La quale ha evidenziato la necessità della costituzione di un gruppo all’interno dell’Università di Bologna che si occupi della gestione dei progetti green di Transizione, come nel contesto in cui mi sono venuto a trovare nell’Università di Utrecht con la presenza del Green Office.
Resumo:
Il sistema di acquisizione dati del nuovo layer IBL di ATLAS conta attualmente 15 schede ROD attive sull’esperimento. In ognuna di queste schede sono presenti due catene JTAG per la programmazione e il test. La prima catena è facilmente accessibile da remoto tramite uno standard VME o Ethernet, mentre la seconda è accessibile solo tramite un programmatore JTAG. Accedere alla catena secondaria di tutte 15 le ROD è in primo luogo sconveniente poiché sarebbero necessari 15 programmatori diversi; in secondo luogo potrebbe risultare difficoltoso doverli gestire tutti da un unico computer. Nasce così l’esigenza di sviluppare un’elettronica aggiuntiva con funzione di controllo che riesca, tramite un unico programmatore, a distribuire un segnale JTAG in ingresso a 15 uscite selezionabili in maniera esclusiva. In questa tesi vengono illustrati i vari passaggi che hanno portato alla realizzazione del progetto ponendo attenzione alla scelta, al funzionamento e all’eventuale programmazione dei componenti elettronici che lo costituiscono. Per ogni parte è stato realizzato un ambiente hardware di prototipazione che ne ha garantito il test delle funzionalità. La scheda, basata su un microcontrollore ATmega 328-P, è attualmente in fase di completamento nel laboratorio di progettazione elettronica dell’INFN di Bologna. Il prototipo studiato e realizzato tramite il lavoro di questa tesi verrà anche utilizzato in ambiente CERN una volta che ne sarà convalidata l’affidabilità e potrà anche essere facilmente adattato a tutti gli esperimenti che usano un protocollo JTAG per la programmazione di dispositivi remoti.
Resumo:
Questa tesi tratta di argomenti di Teoria di Galois. In essa sono presenti alcuni richiami fondamentali della teoria di Galois, come il gruppo di Galois di una estensione di campi di Galois e la corrispondenza di Galois. Prosegue con lo studio delle radici m-esime primitive dell'unità e dei polinomi ciclotomici. Infine si studia il gruppo di Galois di un polinomio ciclotomico.
Resumo:
Un esperimento nell'insegnamento della matematica condotto attraverso l'aspetto geometrico delle identità algebriche.
Resumo:
L’elaborato che segue vuole essere una guida che permetta al lettore di muoversi attraverso il campo intricato e appassionante della traduzione dei nomi parlanti nella letteratura per bambini e per ragazzi, utilizzando come spunto di riflessione la serie di Fairy Oak di Elisabetta Gnone. Il lettore viene guidato in un percorso che parte dalle origini dei nomi parlanti, le quali affondano nella vita quotidiana e nella letteratura del passato, e passa per una breve analisi di questa branca della teoria onomastica e di alcune teorie di traduzione, fino ad arrivare ad un esempio pratico. Lo spunto pratico per una riflessione in ambito traduttivo è tratto dai testi della saga di Fairy Oak, una serie di romanzi per ragazzi composta da una trilogia e da una quadrilogia (Il Segreto delle Gemelle, L'Incanto del Buio, Il Potere della Luce e Capitan Grisam e l'Amore, Gli Incantevoli Giorni di Shirley, Flox Sorride in Autunno). L’elaborato si concentrerà sulla trilogia e in particolare verrà messo in evidenza il ruolo dei nomi dei personaggi e dei luoghi. L’autrice italiana, Elisabetta Gnone, si è dedicata con grande cura alla creazione di antroponimi e toponimi, che descrivono e formano parte dei peronaggi e dei luoghi. Proprio questi nomi parlanti hanno presentato una sfida per i traduttori e rappresentano un esempio chiaro di come possano coesistere diversi approcci traduttivi o come, invece, a volte la strategia da adottare sia quasi obbligata dal contesto e dal destinatario della traduzione d’arrivo. Dagli esempi e dalle ricerche traduttologiche emerge che, nonostante sia impossibile definire una strategia univoca, è sempre possibile giungere a una soluzione, tramite un’attenta negoziazione.
Resumo:
In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.
Resumo:
Le superfici di suddivisione sono un ottimo ed importante strumento utilizzato principalmente nell’ambito dell’animazione 3D poichè consentono di definire superfici di forma arbitraria. Questa tecnologia estende il concetto di B-spline e permette di avere un’estrema libertà dei vincoli topologici. Per definire superfici di forma arbitraria esistono anche le Non-Uniform Rational B-Splines (NURBS) ma non lasciano abbastanza libertà per la costruzione di forme libere. Infatti, a differenza delle superfici di suddivisione, hanno bisogno di unire vari pezzi della superficie (trimming). La tecnologia NURBS quindi viene utilizzata prevalentemente negli ambienti CAD mentre nell’ambito della Computer Graphics si è diffuso ormai da più di 30 anni, l’utilizzo delle superfici di suddivisione. Lo scopo di questa tesi è quello di riassumere, quindi, i concetti riguardo questa tecnologia, di analizzare alcuni degli schemi di suddivisione più utilizzati e parlare brevemente di come questi schemi ed algoritmi vengono utilizzati nella realt`a per l’animazione 3D.
Resumo:
Questa tesi ha permesso di osservare e analizzare le strategie risolutive che gli studenti italiani utilizzano quando si cimentano nello svolgimento delle prove di matematica nazionali INVALSI (Sistema Nazionale per la Valutazione del Sistema dell'Istruzione). L'osservazione è stata svolta durante le ore di tirocinio curriculare effettuate nell'anno accademico 2014/2015 presso il liceo scientifico e delle scienze umane "Albert Bruce Sabin" di Bologna. L'interesse per l'esperimento è nato dalla constatazione dei risultati deludenti degli studenti italiani nelle prove di matematica rispetto all'andamento internazionale. Pertanto,in collaborazione con il prof Giorgio Bolondi, relatore dell'elaborato, e della prof.ssa Valeria Vesi insegnante di matematica delle classi prime seguite durante il tirocinio, è stato realizzato un test di domande estrapolate dalle prove INVALSI svolte negli anni precedenti, sottoposto a un campione di 12 studenti (14-15 anni) frequentanti le classi 1M, 1O e 1R.Il lavoro d'indagine è stato realizzato in due diverse fasi: soluzione del test e intervista-colloquio registrata. Le registrazioni, apparse fin da subito molto interessanti, rivelano importanti informazioni che permettono di evidenziare le diverse difficoltà che i nostri studenti incontrano nel risolvere le prove di matematica. Per meglio interpretare i loro comportamenti durante la messa in atto dei processi risolutivi è stato svolto uno studio e una ricerca riguardanti gli studi e le teorie che interessano il problem-solving, oltre a fornire una panoramica sulle ricerche nel campo della valutazione.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura