980 resultados para marketing, realtà aumentata, Mobile, geolocalizzazione, scienze di internet
Resumo:
Questo elaborato si propone di collocare i Sistemi di Accumulo nell’attuale panorama energetico italiano ed europeo, con particolare attenzione alla crescente presenza della produzione di energia da fonti rinnovabili. Dopo alcune valutazioni preliminari sull’Energy Mix europeo ed italiano, si procede a mettere in luce i rischi per il sistema elettrico derivanti dalla eccessiva penetrazione delle fonti rinnovabili. In questo contesto si analizza il potenziale contributo dei Sistemi di Accumulo alla stabilità e all’equilibrio della rete elettrica, soprattutto nella risoluzione delle problematiche derivanti da una Generazione Distribuita e non programmabile. Vengono presentate diverse tipologie di SdA, dal punto di vista del funzionamento e delle caratteristiche, anche in funzione della destinazione d’uso. Si dà poi un quadro generale delle normative europee e italiane, e si indaga l’effettiva convenienza dei Sistemi di Accumulo, anche in relazione all’impatto sull’ambiente e alle emissioni.
Resumo:
At head of title: Reale Accademia delle scienze di Torino (Anno 1919-1920)
Resumo:
Extracted from Memorie della R. Accademia delle scienze di Torino. Classe di scienze fisiche, matematiche e naturali. Serie 2da, tomo XVII.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
La tesi è organizzata nelle seguenti parti: -il primo capitolo affronta il tema della transizione dalla teoria economica classica all'approccio della neuroeconomia, ripercorrendo alcune tappe fondamentali che hanno progressivamente avvicinato l'economia al funzionamento della mente umana; -il secondo capitolo è rivolto a rappresentare le principali caratteristiche dei processi decisionali in Internet, attraverso l’esame della letteratura, anche con riferimento ad ipotesi recenti sulla possibilità che la stretta esposizione al “digitale” porti ad un cambiamento del funzionamento della mente; -il terzo capitolo sviluppa una ipotesi applicativa del nuovo “paradigma” della neuroeconomia al mondo di Internet, evidenziando i processi e le variabili chiave; -nelle conclusioni si riprendono sinteticamente gli aspetti chiave trattati, anche in termini di limiti e possibili sviluppi futuri del lavoro svolto.
Resumo:
La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Obiettivo di questa tesi è l’introduzione dei principali temi correlati con le tecnologie di Realtà Aumentata, Realtà Virtuale e tecnologie aptiche, cercando di darne una definizione esaustiva e definendo i principali utilizzi e illustrando alcune tecnologie esistenti. L’elaborato, in questo modo, mira a proporre una spiegazione esaustiva della Realtà Virtuale e della Realtà Aumenta, soffermandosi a valutare le differenze e le similitudini delle due tecnologie e proponendo una serie di esempi di utilizzo in ambito formativo e culturale.
Resumo:
Questo volume di tesi ha l'obiettivo di descrivere l'intero processo di progettazione, sviluppo e rilascio di un'applicazione mobile, coinvolgendo anche gli end-user nella fase finale di valutazione. In particolare, il volume di tesi si sviluppa su quattro capitoli che descrivono 1) l'analisi dei requisiti, seguendo un approccio AGILE, 2) l'analisi del ciclo di vita del prodotto (inclusi business model e business plan), 3) l'architettura del sistema, e, infine, 4) la valutazione dell’usabilità e della UX. L'applicazione usata come caso di studio è "LetsBox!", un'applicazione mobile della categoria puzzle game, sviluppata sfruttando il framework di sviluppo di app ibride IONIC 5, con l’obiettivo di creare un gioco che coinvolgesse il giocatore tanto da farlo giocare nei suoi momenti di svago e indurlo a sfidare i record esistenti ma, nello stesso tempo creare un gioco originale e non esistente sul mercato.
Resumo:
L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.
Resumo:
In questo elaborato di tesi vengono presentati la ricerca e il lavoro che hanno portato all’ideazione e sviluppo di CirculAR. CirculAR consiste in un dispositivo per la realtà aumentata, che assiste i conducenti di veicoli a due ruote, quali biciclette, monopattini e motocicli, proiettandogli informazioni utili per una guida in sicurezza. L’energia che alimenta il dispositivo per la realtà aumentata viene generata, in modo sostenibile, dalla conversione in energia elettrica dell’energia cinetica ottenuta dalle vibrazioni che si scaricano al telaio, originate dal contatto tra manto stradale e veicolo stesso. Il sistema - prodotto è composto, infatti, da due dispositivi differenti, un wearable device e un generatore elettrico, che cooperano per il raggiungimento di una Realtà Aumentata più sostenibile ed innovativa. Per lo sviluppo di CirculAR sono state prese in considerazione tecnologie innovative ad oggi oggetto di grande ricerca e interesse scientifico; per questo studio in particolare, si è deciso di conciliare queste tecnologie con una progettazione mirata alla semplificazione ed alla specializzazione dei singoli componenti per garantirne un generale livello di forte innovazione tecnologica ed, al contempo, una riduzione del costo complessivo di vendita del prodotto. Il connubio di queste tecnologie ha permesso di realizzare due dispositivi innovativi sia da un punto di vista tecnologico che da un punto di vista della sostenibilità, che possono rappresentare un modello per una futura generazione di wearable device sostenibile.
La produzione di valore tra passato e presente: peculiarità e implicazioni del progresso tecnologico
Resumo:
L'obiettivo di questa tesi è quello di analizzare la struttura della società odierna, alla luce delle influenze e modifiche apportate dall’avvento dell'informatica e mostrare come, in generale, il progresso tecnologico abbia profondamente cambiato il nostro modo di vivere. L'introduzione dei computer, l'avvento dell'era digitale e di internet hanno segnato un profondo cambiamento nella storia moderna. In questa tesi andremo prima ad analizzare il capitalismo cognitivo, che vede, al centro della produzione di valore, non più il tempo, ma la conoscenza. Verranno indagati ed esposti i vari aspetti e gli elementi fondamentali della nuova dimensione immateriale, che si è venuta a creare con l'avvento del mondo digitale. Successivamente, viene analizzata la nuova struttura delle imprese, come esse si sono evolute e come si dovrebbero evolvere, per ottimizzare le proprie risorse e adattarsi al nuovo sistema economico sociale. Particolare attenzione verrà posta al nuovo ruolo dei manager e alla produzione sociale. Nel terzo capitolo, vengono analizzati i cambiamenti che sono avvenuti negli ultimi anni all'interno della società; illustreremo il nuovo modo di lavorare, che prevede l'uomo affiancato costantemente dalla tecnologia, e l’apporto dell’intelligenza artificiale al cambiamento della società nei suoi diversi aspetti. Saranno esposte le nuove problematiche emergenti, sia in abito giuridico che etico, conseguenti alla creazione di scenari economico-sociali di cui, prima della rivoluzione tecnologica, non si immaginava nemmeno l'esistenza. Per concludere, vengono presentate le sfide che la politica deve e dovrà affrontare per controllare le nuove dinamiche economiche e le situazioni di monopolio globale che si sono create. Verranno analizzate problematiche e possibili soluzioni, nonché le implicazioni che il progresso tecnologico ha avuto sulla circolazione delle informazioni e di conseguenza sulla percezione della realtà da parte del consumatore.
Resumo:
Il tema approfondito in questo elaborato è relativo a nuove forme di esperienze museali in grado di favorire una maggiore fruizione dei musei da parte dei visitatori portatori di disabilità sensoriali. L’obiettivo dello studio, reso possibile grazie alla collaborazione con il Comune di Riccione, l’Università di Bologna e il Museo del Territorio di Riccione, riguarda la riproduzione tattile 3D di alcuni manufatti di epoca romana rinvenuti nel territorio e l’implementazione di soluzioni di esplorazione dei modelli fisici con tecniche di realtà aumentata e feedback sonori per fornire al visitatore un’esperienza tattile/sensoriale sugli oggetti. La parte di competenza di questo elaborato riguarda principalmente due aspetti: il rilievo 3D effettuato su quattro diversi frammenti di due serie di lastre fittili, mediante l’utilizzo di scanner ad alta risoluzione e fotogrammetria digitale, e la successiva modellazione in ambiente digitale. Quest’ultima fase comporta l’elaborazione delle scansioni tramite software dedicati e la creazione di mesh per generare la stampa di copie fisiche 3D. In una fase successiva alla stampa 3D le copie saranno poi gestite con particolari tecnologie di esplorazione sensoriale che accompagneranno l’utente durante l’esperienza tattile con feedback sonori. La sperimentazione condotta in questa tesi vuole dimostrare come sia possibile portare ad una trasformazione del ruolo dei musei, da quello tradizionale di magazzino statico a quello di ambiente di apprendimento attivo a disposizione di tutti offrendo esperienze immersive ed educative.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.