187 resultados para Educazione scientifica ed educazione alla sostenibilita
Resumo:
Il lavoro sviluppato intende affrontare in modo integrato la problematica ambientale relativamente allo sviluppo della flotta di veicoli di un grande operatore del trasporto pubblico. In prima istanza il lavoro si è focalizzato sull’analisi approfondita della flotta esistente, ed accanto ai dati tradizionali è stata sviluppata anche un’analisi dei costi totali comprensive anche delle esternalità calcolate come da direttiva 2009/33/CE. Sono state sviluppate numerose elaborazioni di uso aziendale relativamente alla metodologia del costo del ciclo di vita, LCC, che è in uso presso TPER S.p.A. sin dal 2001. Successivamente sono stati sviluppati gli scenari evolutivi della flotta automobilistica individuando per il confronto finale tre scenari distinti in ottica 2020: - Il primo scenario inerziale senza nessuna modifica della flotta consolidato al 31.12.2015, tale scenario è definito dai veicoli presenti, dai costi di gestione della manutenzione, dai costi di carburante e dai costi esterni come suddetto; - Il secondo con orizzonte 2016 prevede l’inserimento in servizio dei n. 49 filosnodati Crealis e viene consolidato al 31.12.2016; - Il terzo scenario è quello obiettivo e considera nel 2020 l’entrata in parco via via degli acquisti che TPER S.p.A. ha già programmato per il 2017, 2018 e compresi i n.55 snodati con alimentazione elettrica del progetto PIMBO. Le comparazioni di questi scenari permettono in modo molto realistico di individuare gli effetti su una flotta reale delle politiche di investimento reali e non simulate e di poter quantificare quindi l’andamento dei costi esterni in relazione alla modifica della flotta di TPER S.p.A.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
Questa tesi espone il mio lavoro all'interno del progetto di ricerca del FAMT&L, progetto sviluppato dal dipartimento di Matematica e dal dipartimento di Scienze dell'Educazione sulla valutazione formativa in matematica, finanziato dall'Unione Europea e svolto in collaborazione con Francia, Svizzera, Olanda e Cipro. Questo progetto di ricerca è centrato sulla formazione degli insegnanti alla valutazione formativa. L'obiettivo è quello di formare gli insegnanti a fare valutazione formativa in matematica. Lo strumento scelto è quello di lavorare su video di situazioni in classe. Il mio lavoro di tesi è consistito nell'analizzare le situazioni dei video per trovare delle categorie relative ai contenuti, alle competenze matematiche e alle caratteristiche dell'apprendimento della matematica. Questi materiali saranno utilizzati come materiale nella formazione insegnanti.
Resumo:
La nucleosintesi primordiale descrive le reazioni che hanno formato i primi elementi leggeri (H, 2H, 3He, 4He, 7Li) e ci da una previsione sull'andamento delle loro abbondanze primordiali in funzione del rapporto barioni-fotoni η, unico parametro libero della teoria BBN. Questo parametro è stato fissato dal momento in cui la sonda WMAP è stata lanciata in orbita; essa ha svolto misure importantissime sulla radiazione cosmica di fondo, fornendoci un valore accurato della densità barionica e quindi di η. Con questo nuovo dato sono state calcolate le abbondanze degli elementi leggeri ai tempi della nucleosintesi primordiale, tuttavia quella teorizzata per il 7Li non corrispondeva affatto a quella osservata nelle stelle dell'alone galattico, ma risultava essere dalle 2 alle 4 volte maggiore. Questa discrepanza costituisce il problema cosmologico del litio. Il problema può essere affrontato in diversi campi della fisica; il nostro scopo è quello di studiarlo dal punto di vista della fisica nucleare, analizzando le reazioni nucleari legate al 7Li. Il contributo principale alla produzione di 7Li proviene dal decadimento spontaneo del 7Be, quindi bisogna valutare il rate di reazione dei processi che producono o distruggono quest'ultimo nucleo; tale rate dipende dalla sezione d'urto della reazione. Un contributo fondamentale potrebbe essere dato dalle eventuali risonanze non ancora scoperte, cioè gli stati eccitati dei prodotti di reazione che si trovano ad energie non ancora studiate, in corrispondenza delle quali la sezione d'urto subisce un drastico aumento. Le due reazioni principali da considerare sono 7Be(n,p)7Li e 7Be(n,αlfa)4He; la prima perché contribuisce al 97% della distruzione del berillio, quindi una rivalutazione della sua sezione d'urto porterebbe ad un grande cambiamento nel valore dell'abbondanza di 7Be (e quindi di 7Li), la seconda poiché, anche se contribuisce solo al 2.5% della distruzione del berillio, possiede una incertezza enorme.
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
Il caso studio del vestibolo ottagonale di Villa Adriana ha dato la possibilità di applicare ad un edificio di notevole valore storico e artistico tecniche di restituzione digitale e di modellazione tridimensionale basate su applicativi di modellazione geometrica, con lo scopo di generarne il modello 3D digitale fotorealistico e polifunzionale. Nel caso specifico del vestibolo, un modello tridimensionale di questo tipo risulta utile a fini documentativi, a sostegno di ipotesi costruttive e come strumento per la valutazione di interventi di restauro. Il percorso intrapreso ha permesso di valutare le criticità nelle tecniche di acquisizione, modellazione e foto-modellazione tridimensionale applicate in ambito archeologico, tecniche usate abitualmente anche in settori quali l’architettura, il design industriale ma anche nel cinema (effetti speciali e film d’animazione) e in ambito videoludico, con obiettivi differenti: nel settore del design e della progettazione industriale il Reverse Modeling viene impiegato per eseguire controlli di qualità e rispetto delle tolleranze sul prodotto finale, mentre in ambito cinematografico e videoludico (in combinazione con altri software) permette la creazione di modelli realistici da inserire all’interno di film o videogiochi, (modelli non solo di oggetti ma anche di persone). La generazione di un modello tridimensionale ottenuto tramite Reverse Modeling è frutto di un processo opposto alla progettazione e può avvenire secondo diverse strategie, ognuna delle quali presenta vantaggi e svantaggi specifici che la rendono più indicata in alcuni casi piuttosto che in altri. In questo studio sono state analizzate acquisizioni tridimensionali effettuate tramite Laser Scan e tramite applicazioni Structure from Motion/Dense Stereo View.
Resumo:
Il presente elaborato propone un’analisi del tedesco standard austriaco e prende le mosse da un argomento di attualità, ovvero la discussione sulla necessità di meglio preservare i tratti caratteristici di questa varietà linguistica, di fronte alla tendenza, riscontrabile soprattutto tra i più giovani, a utilizzare sempre più spesso termini ed espressioni tipiche del tedesco parlato in Germania. Questo fenomeno è strettamente legato all’influenza dei moderni mezzi di comunicazione e all’ampia disponibilità di materiale doppiato, che contribuisce a diffondere la varietà caratteristica del nord della Germania negli altri paesi di lingua tedesca. Dopo aver fornito alcune informazioni di carattere storico e spiegato alcune nozioni di linguistica, la riflessione si concentra sul concetto di lingua pluricentrica e sugli spunti che quest’ultimo offre in ambito formativo, sia per la formazione scolastica dei madrelingua che nel campo dell’insegnamento del tedesco come lingua straniera.
Resumo:
Questo elaborato ha lo scopo di delineare gli eventi storici e i fattori sociali e culturali che hanno portato alla nascita e allo sviluppo di una certa percezione dell’Italia in Giappone. Tale percezione, sebbene a volte basata su una visione stereotipata del Bel Paese, è tendenzialmente molto positiva ed è la conseguenza del crescente interesse che i giapponesi nutrono per l’Italia. La tesi è strutturata in tre capitoli: il primo è dedicato alla storia delle relazioni tra il Giappone e l’Occidente; il secondo si focalizza sui rapporti tra l’Italia e il Giappone in particolare, dai primi contatti fino a oggi, e una parte consistente del capitolo è incentrata sull'analisi degli stereotipi; infine il terzo si concentra sui contatti Italia-Giappone da un punto di vista culturale, analizzando le reciproche influenze in ambiti specifici (quali l’arte, il cinema, la lingua e la cucina) e vengono forniti alcuni esempi di rappresentazione dell’immagine dell’Italia nella cultura nipponica.
Resumo:
In questo breve elaborato si vuole spiegare l’importanza dello studio di un corpo celeste mediante l’osservazione del suo spettro ovvero un grafico del flusso emesso in funzione della frequenza o della lunghezza d’onda nel quale sono presenti righe spettrali, formate dall’interazione tra materia e radiazione, a causa dell’assorbimento od emissione di fotoni a seguito di transizioni elettroniche, ma anche vibrazionali e rotazionali per le molecole. In particolare, dall’analisi delle righe spettrali si traggono diverse informazioni sull’oggetto, quali, la composizione e l’abbondanza delle specie chimiche che lo compongono in base al tipo di righe presenti e alla loro intensità, si deduce la temperatura e la pressione dell’oggetto studiato dalla larghezza di queste, ancora, informazioni sul moto relativo e la distanza dall’osservatore misurando lo shift delle righe; infine densità e campi magnetici del mezzo interstellare. Per molti oggetti astronomici, troppo distanti, lo studio dello spettro è l’unico modo per trarre conclusioni sulla loro natura. Per questo, nel primo capitolo si ricava l’equazione del trasporto radiativo, soffermandosi sui processi che regolano l’assorbimento e l’emissione di energia. Il secondo capitolo invece, tratta il caso particolare delle atmosfere stellari, nel quale si ricava, con una serie di approssimazioni fatte sull’equazione del trasporto radiativo, quale parte osserviamo di una stella e dove si formano le righe spettrali. Successivamente ci si è concentrati sui meccanismi che portano alla formazione delle righe spettrali, analizzando sia le transizioni radiative con i coefficienti di Einstein, sia quelle collisionali, e distinguendo tra transizioni permesse o proibite con le regole di selezione. Infine si sono esaminate le informazioni che si possono ricavare dalle righe spettrali, approfondendo sui fenomeni di shift e modifica di queste, descrivendo più nel dettaglio la riga a 21 cm dell’atomo di idrogeno, fondamentale in astrofisica.
Resumo:
Questo lavoro di tesi si pone l’obiettivo di illustrare i principi fisici che stanno alla base del teletrasporto quantistico, una tecnica importante utilizzata nelle tecnologie del l’informatica quantistica. In particolare, verranno introdotti i principali concetti della computazione quantistica, come il qubit e le porte logiche quantistiche, intese come trasformazioni unitarie che operano su qubit, e verrà illustrato il protocollo di teletrasporto dello stato quantico di un qubit da un punto ad un altro dello spazio. In seguito verrà descritto il fenomeno quantistico del l’entanglement e si porrà l’accento su come tale fenomeno possa essere sfruttato nel protocollo di teletrasporto quantistico. Segue, infine, una descrizione delle principali tecniche utilizzate negli esperimenti di verifica dell’entanglement e di teletrasporto quantistico condotti fino ai giorni nostri, con enfasi ai possibili sviluppi futuri.
Resumo:
Viaggiare da un punto all'altro dell'universo muovendosi in uno spazio-tempo piatto richiede tempi talmente colossali da risultare impossibile per la nostra razza; pertanto, un viaggio interstellare potrebbe essere realizzato solo per mezzo di topologie relativistiche in grado di accorciare la distanza fra i punti dell'universo. Dopo aver dato una serie di motivazioni per cui i buchi neri ed il ponte di Einstein-Rosen non sono adatti ad essere impiegati viene introdotta una particolare classe di soluzioni, presentata per la prima volta da Michael S. Morris e Kip S. Thorne, delle equazioni di Einstein: essa descrive wormholes i quali, almeno in linea di principio, risultano attraversabili dagli esseri umani in quanto non presentano un orizzonte degli eventi sulla gola. Quest'ultima proprietà, insieme alle equazioni di campo di Einstein, pone dei vincoli piuttosto estremi sul tipo di materiale in grado di dar luogo alla curvatura spazio-temporale del wormhole: nella gola del wormhole la materia deve possedere una tensione radiale di enorme intensità, dell'ordine di quella presente nel centro delle stelle di neutroni più massive per gole con un raggio di appena qualche kilometro. Inoltre, questa tensione dev'essere maggiore della densità di energia del materiale: ad oggi non si conosce alcun materiale con quest'ultima proprietà, la quale viola entrambe le "condizioni sull'energia" alla base di teoremi molto importanti e verificati della relatività generale. L'esistenza di questa materia non può essere esclusa a priori, visto che non esiste prova sperimentale o matematica della sua irrealisticità fisica, ma non essendo mai stata osservata è importante assicurarsi di impiegarne il meno possibile nel wormhole: questo ci porterà a mostrare che i wormholes in cui il materiale esotico presenta una densità di energia negativa per gli osservatori statici sono i più adatti al viaggio interstellare.
Resumo:
La tomografia a coerenza ottica (Optical Coherence Tomography, OCT) rappresenta fondamentalmente una nuova modalità di diagnostica per immagini non invasiva e ad alta risoluzione. L’OCT fornisce immagini, sotto forma di sezioni trasversali o tomografiche, delle microstrutture dei tessuti biologici tramite la misura del ritardo dell’eco e dell’intensità della luce retrodiffusa o riflessa dal campione in analisi. L’OCT è una potente tecnica poiché fornisce in tempo reale immagini in situ delle strutture tissutali normali o patologiche, con una risoluzione da 1 a 15 micron, che è da uno a due ordini di grandezza maggiore rispetto alle tecniche per immagini convenzionali come ultrasuoni, risonanza magnetica o tomografia computerizzata. Tutto questo senza la necessità di ottenere e analizzare un campione tramite biopsia e studio istopatologico. Sin dall’inizio della sua utilizzazione nel 1991, l’OCT è stata impiegata in un vasto spettro di applicazioni cliniche, principalmente l'oftalmologia. In strutture non trasparenti, diverse da quelle oculari, la profondità massima esplorabile è limitata a 2-3 mm a causa dei fenomeni di attenuazione secondari e alla dispersione della luce. Inoltre, i numerosi sviluppi fatti dalla tecnologia OCT hanno portato ad alte velocità di acquisizione e, grazie all’utilizzo di sorgenti laser di ultima generazione, risoluzioni assiali dell’ordine di 1 micrometro. Dunque, la tomografia a coerenza ottica può essere sfruttata: - Quando la biopsia escissionale è pericolosa o impossibile. - Quando si rischiano errori di campionamento, come guida alla biopsia in modo da ridurre errori nel prelievo del campione. - Come guida alla procedura d’intervento, in associazione alle procedure di cateterismo, endoscopia e laparoscopia.
Resumo:
La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.
Resumo:
Negli ultimi anni, è aumentato notevolmente l'interesse per piante e prodotti vegetali, e composti da essi derivati od estratti, in alternativa ai conservanti chimici per prevenire o ritardare lo sviluppo microbico negli alimenti. Questo deriva dalla percezione negativa, ormai diffusa a livello pubblico, nei confronti di sostanze di sintesi che sono ampiamente utilizzate come conservanti nell’industria alimentare. Sono stati effettuati diversi studi sull’attività antimicrobica di questi composti negli alimenti, anche se il loro utilizzo a livello industriale è limitato. Ciò dipende dalla difficile standardizzazione di queste sostanze, dovuta alla variabilità della matrice alimentare che ne può alterarne l’attività antimicrobica. In questa sperimentazione si sono utilizzati l’olio essenziale di Sateureja montana e l’estratto di Cotinus coggygria e sono state fatte delle prove preliminari, determinandone le componenti volatili tramite gas-cromatografia abbinata a microestrazione in fase solida. Sono stati selezionati un ceppo di Listeria monocytogenes (Scott A) e uno di Saccharomyces cerevisiae (SPA), e sono stati utilizzati per realizzare curve di morte termica in sistema modello e in sistema reale. Dai risultati ottenuti si può affermare che Satureja montana e Cotinus coggygria possono essere presi in considerazione come antimicrobici naturali da impiegare per la stabilizzazione di alimenti, nonché per ridurre l’entità dei trattamenti termici atti a salvaguardare le proprietà nutrizionali ed organolettiche di alimenti, come ad esempio succhi di frutta, garantendone la sicurezza e qualità microbiologica.
Resumo:
L’innovazione ed il trasferimento tecnologico rappresentano una delle leve fondamentali per rispondere alla sfida della competizione economica internazionale ed al progresso economico del proprio paese. Una delle attività che più implementa tale processo consiste nella ricerca scientifica finalizzata all'applicazione industriale dei risultati accademici ottenuti. Assume particolare rilevanza il ruolo svolto dalle università in questo contesto. Il seguente elaborato si propone di analizzare il fenomeno degli spin-off accademici, ovvero realtà imprenditoriali ad alto contenuto tecnologico\innovativo derivanti da un'iniziativa imprenditoriale da parte di un professore o ricercatore nel tentativo di valorizzare i risultati ottenuti durante il proprio percorso accademico. L’intento è quello di andare a strutturare tale fenomeno nel contesto italiano, tramite l’analisi di un insieme di variabili caratterizzanti ciascuno spin-off. Dal confronto di queste variabili è possibile capire quali effetti concreti questo nuovo tipo di fare impresa ha nel tessuto imprenditoriale nazionale. Il principale fattore competitivo in una economia basata sulla conoscenza consiste infatti proprio nell’innovazione tecnologica. Favorire dunque la fruibilità dei risultati della ricerca scientifica e tecnologica, incoraggiare partnership di lungo periodo fra mondo della ricerca e tessuto industriale e diffondere la cultura della innovazione e della protezione della proprietà intellettuale rappresentano gli elementi principali affinché sia possibile implementare il fenomeno degli spin-off. La parte iniziale della seguente trattazione ha lo scopo di introdurre il lettore al fenomeno degli spin-off con considerazioni e definizioni teoriche. Il secondo capitolo definisce le modalità di raccolta dati e descrive le variabili principali analizzate. Il terzo capitolo, infine, è dedicato all’analisi dei dati precedentemente introdotti con relativa discussione dei risultati ottenuti.