247 resultados para didattica ricerca operativa programmazione lineare scuole superiori
Resumo:
Il lavoro compiuto porta in evidenza un tema di grande attualità per il progetto urbano e promuove la ricerca tipologica e figurativa volta a interpretare il luogo tramite l’analisi dei caratteri, tessuti, giaciture per capirne le criticità e da queste partire, non con la pretesa di una capacità risolutiva assoluta dell’intera gamma dei problemi che lo sviluppo del territorio pone, ma come occasione per dare un assetto ordinato a una parte di città e con l’intento di mettersi a disposizione e al servizio della città stessa, costruita e attuata come accumulo indifferenziato di manufatti privo di un qualsiasi disegno generale che lo regoli. L’idea guida del progetto è stata la scelta di rivalutare, anche dal punto di vista espositivo, il carattere di museo-laboratorio proprio dell’Accademia, così da ridefinire il suo ruolo didattico. Tra la necessità di salvaguardare il carattere di Brera come Istituzione e il bisogno di trovare una collocazione più adatta alla didattica attraverso il trasferimento degli spazi dell’Accademia nel Comprensorio delle ex caserme XXIV Maggio, Carroccio, Magenta.
Resumo:
La forma spettrale dell’X-ray background richiede l’esistenza di un grande numero di AGN mediamente oscurati, oltre alla presenza di AGN fortemente oscurati, la cui densità di colonna supera il limite Compton (Nh>10^24 cm^(-2)). A causa della loro natura, questi oggetti risultano di difficile osservazione, per cui è necessario adottare un approccio multi-banda per riuscire a rivelarli. In questo lavoro di tesi abbiamo studiato 29 sorgenti osservate nel CDF-S e 10 nel CDF-N a 0.07
Resumo:
Il Parco Archeologico non può essere più considerato come un'entità a sé stante; esso deve essere parte di un sistema che assolva un ruolo attivo all'interno del territorio in cui si trova. In questo modo il Parco Archeologico diviene un elemento dinamico, non ad uso e consumo di pochi appassionati ma aperto alla collettività. Il progetto prevede la musealizzazione del sito archeologico di Suasa Senonum; viene proposto l'inserimento di elementi che favoriscano l'integrazione del sito nel territorio. E' fondamentale a tal scopo il ruolo svolto dalla didattica, esaltato dal contatto diretto con il testo archeologico: in particolare l'elaborato di tesi si occupa della progettazione di un padiglione per laboratori e di un parco giochi, oltre che di un Visitor Center, elemento introduttivo al parco archeologico. L'obiettivo principale del progetto è quello di fare del parco un polo attrattivo all'interno del territorio, che possa accogliere al suo interno varie attività e fruitori. In questo modo l'archeologia ha un ruolo attivo nella società odierna, può essere valorizzata e allo stesso tempo valorizzare, potenziare, richiamare.
Resumo:
Il Parco Archeologico non può essere più considerato come un'entità a sé stante; esso deve essere parte di un sistema che assolva un ruolo attivo all'interno del territorio in cui si trova. In questo modo il parco archeologico diviene un elemento dinamico, non ad uso e consumo di pochi appassionati ma aperto alla collettività. Il progetto prevede la musealizzazione del sito archeologico di Suasa Senonum; viene proposto l'inserimento di elementi che favoriscano l'integrazione del sito nel territorio. E' fondamentale, a tal scopo, il ruolo svolto dalla didattica, esaltato dal contatto diretto con il testo archeologico: in particolare l'elaborato di tesi si occupa della progettazione di un padiglione per laboratori e di un parco giochi, oltre che di un Visitor Center, elemento introduttivo al parco archeologico. L'obiettivo principale del progetto è quello di fare del parco un polo attrattivo all'interno del territorio, che possa accogliere al suo interno varie attività e fruitori. In questo modo l'archeologia ha un ruolo attivo nella società odierna, può essere valorizzata e allo stesso tempo valorizzare, potenziare, richiamare.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
Al giorno d'oggi l'accessibilità all’informazione e ai prodotti audiovisivi è un argomento particolarmente delicato. Spesso, le categorie più svantaggiate, come le persone affette da disabilità sensoriali e gli stranieri, non hanno pieno accesso alla programmazione televisiva o a eventi ricreativi, culturali o formativi (conferenze, workshop, spettacoli), a causa della mancanza di adeguati servizi di supporto linguistico. Tale carenza rappresenta una mancata opportunità d’integrazione e anche una potenziale perdita, in termini di pubblico e di introiti, per le emittenti e gli enti che organizzano programmi ed eventi di interesse generale. Questa tesi intende analizzare le tecniche attraverso le quali oggi viene realizzata la sottotitolazione interlinguistica in tempo reale. Il nostro obiettivo è quello di dimostrare che approfondendo la ricerca scientifica sul respeaking e su altre tecniche meno costose rispetto alla stenotipia, la sottotitolazione interlinguistica in tempo reale non sarebbe più un miraggio. Il primo capitolo fornisce una panoramica sulla sottotitolazione intralinguistica e interlinguistica e sulla sottotitolazione preregistrata, in diretta e in semi-diretta. Nel secondo capitolo presenteremo il caso dell’azienda Ericsson in Olanda, l'unica a fornire sottotitolazione interlinguistica in tempo reale nei Paesi Bassi, tramite una tecnica che combina un interprete simultaneo, uno stenotipista e un "subtitle keyer" (figura che inserisce i sottotitoli al momento opportuno). La squadra lavora su un segnale dal vivo che viene però trasmesso al pubblico olandese con alcuni secondi di ritardo, permettendo di migliorare la qualità dei sottotitoli. Grazie ad una borsa di studio concessa dal Dipartimento d’Interpretazione e Traduzione di Forlì (Università di Bologna), abbiamo potuto intervistare il responsabile dell’unità di traduzione presso Ericsson, dott. Thijs de Korte, e abbiamo avuto modo di assistere in loco alla realizzazione dei sottotitoli interlinguistici in tempo reale. Il terzo capitolo si concentrerà sulla tecnica del respeaking, dagli ambiti d’uso ai requisiti per svolgere questa professione. Ci concentreremo in particolare sulle somiglianze tra respeaker e interprete simultaneo, che ci condurranno all'esperimento descritto nel capitolo 4. Infatti, date le somiglianze riscontrate tra interpretazione simultanea e respeaking e il potenziale in termini di accessibilità offerto dalla sottotitolazione interlinguistica dal vivo, abbiamo fornito un servizio sperimentale di sottotitolazione in diretta dall’italiano verso l’inglese durante la cerimonia di premiazione del Sedicicorto International Film Festival di Forlì. Dopo aver descritto in dettaglio l’esperienza, analizzeremo i giudizi espressi da ospiti stranieri, pubblico italiano e membri dell'associazione "Sedicicorto", al fine di verificare la qualità del servizio e osservarne i benefici. La conclusione della nostra tesi è che sfruttando appieno il potenziale offerto della tecnologia moderna e approfondendo la ricerca sulle tecniche per la sottotitolazione interlinguistica dal vivo, si potrebbero ridurre i costi dei servizi di supporto linguistico a non udenti e stranieri, incoraggiando dunque aziende ed enti a garantire una maggiore accessibilità all’informazione e agli eventi culturali e formativi.
Resumo:
Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.
Resumo:
In questa tesi sono stati analizzati i dati raccolti nella sperimentazione di un percorso di fisica quantistica in una quinta liceo scientifico – indirizzo musicale, svolta nel periodo Marzo-Giugno 2015. Il percorso, progettato dai ricercatori in Didattica della Fisica del DIFA di Bologna, comprende una parte “genuinamente” quantistica sviluppata a partire dall’“Esperimento più bello della Fisica”. Il percorso è stato progettato sulla base dei criteri che definiscono l’appropriazione, costrutto che esprime un particolare tipo di apprendimento attraverso cui lo studente “fa proprio” un concetto. L’analisi è stata condotta con l’obiettivo di osservare casi di appropriazione tra gli studenti e di rifinire il costrutto di appropriazione, valutando in particolare l’efficacia del questionario sociometrico, uno strumento appositamente progettato dall’autore di questa tesi per valutare una delle dimensioni di cui si compone il costrutto di appropriazione. I principali dati analizzati per dare risposta agli obiettivi della tesi riguardano le risposte degli studenti a interviste realizzate alla fine del percorso scolastico, nonché gli esiti di altre attività appositamente progettate: svolgimento di un compito in classe, elaborazione di un tema scientifico, compilazione di questionari. I risultati mostrano come si siano ritrovati tre punti molto delicati che possono ostacolare l’appropriazione: il tempo a disposizione, le dinamiche di classe e soprattutto il rapporto che hanno avuto gli studenti con i concetti quantistici del percorso. Tali fattori hanno portato reazioni molto diverse: chi è stato stimolato e questo ha favorito l’appropriazione, chi ha compreso la fisica quantistica ma non l’ha accettata, chi l’ha compresa e accettata senza troppi problemi, chi si è rifiutato di studiarla perché “troppo grande per sé”.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
La tesi tratta i concetti fondamentali legati alla "Search Engine Optimization", ovvero all’ottimizzazione dei siti web per i motori di ricerca. La SEO è un’attività multidisciplinare che coinvolge aspetti tecnici dello sviluppo web e princìpi di web marketing, allo scopo di migliorare la visibilità di un sito nelle pagine di risposta di un motore di ricerca. All’interno dell’elaborato viene analizzato dapprima il funzionamento dei motori di ricerca, con particolare riferimento al mondo Google; in seguito vengono esaminate le diverse tecniche di ottimizzazione “on-page” di un sito (codice, architettura, contenuti) e le strategie “off-page” volte a migliorare reputazione, popolarità e autorevolezza del sito stesso.
Resumo:
Le celle solari a film sottile sono tra le alternative più promettenti nel campo fotovoltaico. La ricerca di materiali non tossici ed economici per la passivazione delle superfici è di fondamentale importanza. Il presente è uno studio sulla morfologia di film sottili di ZnS. I campioni analizzati sono stati cresciuti tramite DC sputtering a diversa potenza (range 50-150W) per studiare le connessioni tra condizioni di deposizione e proprietà strutturali. Lo studio è stato condotto mediante acquisizione di mappe AFM. E' stata effettuata un'analisi dei buchi (dips) in funzione della potenza di sputtering, per individuare il campione con la minore densità di dips in vista di applicazioni in celle solari a film sottile. I parametri strutturali, quali la rugosità superficiale e la lunghezza di correlazione laterale sono stati determinati con un'analisi statistica delle immagini. La densità e dimensione media dei grani sono state ricavate da una segmentazione delle immagini. Le analisi sono state svolte su due campioni di ZnO per fini comparativi. Tramite EFM sono state ottenute mappe di potenziale di contatto. Tramite KPFM si è valutata la differenza di potenziale tra ZnS e un layer di Al depositato sulla superficie. La sheet resistance è stata misurata con metodo a quattro punte. Dai risultati la potenza di sputtering influenza la struttura superficiale, ma in maniera non lineare. E' stato individuato il campione con la minore rugosità e densità di dips alla potenza di 75 W. Si è concluso che potenze troppo grandi o piccole in fase di deposizione promuovono il fenomeno di clustering dei grani e di aumentano la rugosità e densità di dips. E' emersa una corrispondenza diretta tra morfologia e potenziale di contatto alla superficie. La differenza di potenziale tra Al e ZnS è risultata inferiore al valore noto, ciò può essere dovuto a stati superficiali indotti da ossidi. Il campione risulta totalmente isolante.
Resumo:
La realizzazione di un motore di ricerca per uno specifico ambito documentale comporta molte scelte. Questo documento intende esplicarne problemi riscontrati e soluzioni ottenute durante la realizzazione di un motore di ricerca per ricette culinarie. Questa dissertazione illustra il problema sia da un punto di vista architetturale che implementativo, in particolare, la tesi tratta sia del design pattern MVC, usato come base del progetto, che di algoritmi di stemming e ranking.
Resumo:
Cookgle e il prototipo di un motore di ricerca per ricette culinarie. Scopo della dissertazione e mostrare i punti chiave e i problemi riscontrati durante la progettazione dell'applicativo per l'architettura ad alto livello. Questo concept rappresenta il primo mattone delle successive costruzioni, volte ad ottenere un motore di ricerca per ricette culinarie in grado di indicizzare tutte le ricette presenti nel web.