987 resultados para smartphone analisi mercato evoluzione competitor
Resumo:
Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.
Resumo:
Questo lavoro di ricerca studia il mercato digitale delle Start-Up italiane, valutando i passi del management nei vari cicli di vita aziendale. Dopo uno studio teorico sull'ecosistema italiano startup e il cambiamento dell'approccio scelto dal manager all'interno dell'azienda per arrivare al successo, è stato fatto un studio empirico con questionari e interviste. L'intento è capire in un team aziendale quali sono le figure da seguire e con che importanza. Quanto è fondamentale la figura di colui che organizza, media e detiene la responsabilità del lavoro finito nei tempi prestabiliti?
Resumo:
La diffusione e l'evoluzione degli smartphone hanno permesso una rapida espansione delle informazioni che e possibile raccogliere tramite i sensori dei dispositivi, per creare nuovi servizi per gli utenti o potenziare considerevolmente quelli gia esistenti, come ad esempio quelli di emergenza. In questo lavoro viene esplorata la capacita dei dispositivi mobili di fornire, tramite il calcolo dell'altitudine possibile grazie alla presenza del sensore barometrico all'interno di sempre piu dispositivi, il piano dell'edificio in cui si trova l'utente, attraverso l'analisi di varie metodologie con enfasi sulle problematiche dello stazionamento a lungo termine. Tra le metodologie vengono anche considerati sistemi aventi accesso ad una informazione proveniente da un dispositivo esterno e ad una loro versione corretta del problema dei differenti hardware relativi ai sensori. Inoltre viene proposto un algoritmo che, sulla base delle sole informazioni raccolte dal sensore barometrico interno, ha obbiettivo di limitare l'errore generato dalla naturale evoluzione della pressione atmosferica durante l'arco della giornata, distinguendo con buona precisione uno spostamento verticale quale un movimento tra piani, da un cambiamento dovuto ad agenti, quali quelli atmosferici, sulla pressione. I risultati ottenuti dalle metodologie e loro combinazioni analizzate vengono mostrati sia per singolo campionamento, permettendo di confrontare vantaggi e svantaggi dei singoli metodi in situazioni specifiche, sia aggregati in casi d'uso di possibili utenti aventi diverse necessita di stazionamento all'interno di un edificio.
Resumo:
Questo elaborato di tesi si occupa dell’analisi di sistemi di produzione dell’idrogeno mediante elettrolisi, con un particolare approfondimento sugli elettrolizzatori di tipo PEM. L’elaborato si concentra sullo studio delle fonti rinnovabili non programmabili per la produzione di energia elettrica, con il relativo utilizzo di sistemi di accumulo. Dopo un accurato studio sui vari sistemi di accumulo esistenti viene elaborato un modello al fine di poter effettuare un analisi di tipo black box su varie tipologie di elettrolizzatori PEM presenti sul mercato.
Resumo:
L'RCMT (Regional Centroid Moment Tensor), realizzato e gestito dai ricercatori dell'INGV (Istituto Nazionale di Geofisica e Vulcanologia), è dal 1997 il catalogo di riferimento per gli eventi sismici avvenuti nell'area Europea-Mediterranea, ossia nella regione avente longitudine compresa tra 10° W e 40° E e latitudine compresa tra 25° N e 60° N. Tale regione è caratterizzata da un'attività tettonica complessa, legata non soltanto alla convergenza delle placche Euroasiatica ed Africana, ma anche al movimento di altre placche minori (ad esempio, la placca Arabica), che tutte insieme danno origine ad una vasta gamma di regimi tettonici. Col termine RCMT si indica un particolare tipo di tensore momento sismico, la cui determinazione avviene su scala regionale, per eventi sismici aventi M_w >= 4.5 (M_w >= 4.0 per gli eventi che avvengono nella penisola italica). Il tensore momento sismico è uno strumento fondamentale per caratterizzare natura ed entità di un terremoto. Da esso, infatti, oltre alla magnitudo momento M_w, si ricava anche il meccanismo focale. Comunemente rappresentato sotto forma di beach ball, consente di individuare il tipo di movimento (distensivo, compressivo o trascorrente, o anche una combinazione del primo o del secondo con il terzo) avvenuto sulla faglia che ha provocato il terremoto. I tensori momento sismico permettono, quindi, di identificare le faglie che si attivano durante una sequenza sismica, di comprendere la loro cinematica e di ipotizzare la successiva evoluzione a breve termine. Scopo di questa relazione di laurea è stato derivare le relazioni che intercorrono fra le M_w dell'RCMT e le M_w del CMT (Centroid Moment Tensor della Columbia University), del GFZ (Deutsches GeoForschungsZentrum di Postdam) e del TDMT (Time Domain Moment Tensor). Le relazioni sono state ottenute applicando il metodo dei minimi quadrati agli eventi comuni, che sono stati selezionati utilizzando alcuni semplici programmi scritti in Fortran.
Resumo:
Internet ha rivoluzionato il modo di comunicare degli individui. Siamo testimoni della nascita e dello sviluppo di un'era caratterizzata dalla disponibilità di informazione libera e accessibile a tutti. Negli ultimi anni grazie alla diffusione di smartphone, tablet e altre tipologie di dispositivi connessi, è cambiato il fulcro dell'innovazione spostandosi dalle persone agli oggetti. E' così che nasce il concetto di Internet of Things, termine usato per descrivere la rete di comunicazione creata tra i diversi dispositivi connessi ad Internet e capaci di interagire in autonomia. Gli ambiti applicativi dell'Internet of Things spaziano dalla domotica alla sanità, dall'environmental monitoring al concetto di smart cities e così via. L'obiettivo principale di tale disciplina è quello di migliorare la vita delle persone grazie a sistemi che siano in grado di interagire senza aver bisogno dell'intervento dell'essere umano. Proprio per la natura eterogenea della disciplina e in relazione ai diversi ambiti applicativi, nell'Internet of Things si può incorrere in problemi derivanti dalla presenza di tecnologie differenti o di modalità eterogenee di memorizzazione dei dati. A questo proposito viene introdotto il concetto di Internet of Things collaborativo, termine che indica l'obiettivo di realizzare applicazioni che possano garantire interoperabilità tra i diversi ecosistemi e tra le diverse fonti da cui l'Internet of Things attinge, sfruttando la presenza di piattaforme di pubblicazione di Open Data. L'obiettivo di questa tesi è stato quello di creare un sistema per l'aggregazione di dati da due piattaforme, ThingSpeak e Sparkfun, con lo scopo di unificarli in un unico database ed estrarre informazioni significative dai dati tramite due tecniche di Data Mining: il Dictionary Learning e l'Affinity Propagation. Vengono illustrate le due metodologie che rientrano rispettivamente tra le tecniche di classificazione e di clustering.
Resumo:
In questo lavoro di tesi verrà affrontato uno studio sugli ammassi di galassie che costituiscono le strutture virializzate più grandi dell’Universo. L’analisi delle emissioni provenienti dall’ICM (Intracluster Medium) consente di ottenere informazioni su alcuni dei processi che caratterizzano la dinamica degli ammassi di galassie, come merger e cooling flow, e in particolare di testare le attuali ipotesi sulla formazione ed evoluzione degli ammassi. Le radiazioni provenienti dal gas extragalattico possono essere sia di tipo termico che non termico: le prime causate dal meccanismo di Bremsstrahlung termica e appartenenti alla banda X, le seconde invece dovute prevalentemente dall’emissione di Sincrotrone in banda Radio. Durante lo studio degli ammassi di galassie verranno approfondite le principali radiosorgenti diffuse: Aloni, mini-Aloni e Relitti, focalizzando lo studio su questi ultimi e analizzando un campione di dati ad essi relativi, con lo scopo di trovare un’eventuale correlazione tra alcune delle loro proprietà. La ricerca sugli ammassi di galassie risulta importante in quanto, trattandosi delle più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta un valido strumento per la verifica dell’attuale Modello Cosmologico.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
La PET/RMN è un ibrido delle tecnologie di imaging che incorpora la risonanza magnetica nucleare (RMN), che fornisce un'imaging di tipo morfologico, e la tomografia ad emissione di positroni (PET), che fornisce un'imaging di tipo funzionale. Questa nuova tecnologia trova applicazioni in campo oncologico, cardiovascolare e nello studio del sistema nervoso centrale (SNC). La realizzazione di questa nuova tecnologia ha comportato diverse sfide tecniche per la combinazione delle due apparecchiature, che sono state risolte con diversi approcci. Lo sviluppo futuro della PET/RMN sarà guidato da molteplici fattori tra i quali l'eliminazione degli eventuali disturbi e la necessità di accordi per i rimborsi dell'esame. Tutt'ora esistono tre diversi produttori al mondo : Simens, Philips e GE (General Electric), i quali hanno diverse tecnologie e diversi metodi di analisi. La prima apparecchiatura PET/RMN in Italia è stata acquistata dall'ospedale di Padova nel gennaio 2015, mentre negli altri paesi aveva già fatto la sua comparsa dal 2011.
Resumo:
In questo mio elaborato vengono analizzate le principali problematiche igienico sanitarie della filiera di produzione delle uova e ovoprodotti, In particolare dopo un’analisi economica del settore di produzione delle uova e ovoprodotti vengono illustrati i principali metodi di allevamento delle galline ovaiole anche alla luce delle recenti tendenze a favorire allevamenti con sistemi alternativi a quelli delle gabbie tradizionali. Sono state inoltre illustrate le diverse fasi lavorazione delle uova in guscio (dalla raccolta alla selezione e confezionamento) e degli ovoprodotti includendo la descrizione delle diverse tipologie di prodotti d’uovo disponibili sul mercato. Accanto alla descrizione dei processi produttivi si sono illustrati anche i riferimenti normativi che disciplinano tali prodotti con particolare riferimento ai regolamenti relativi in materia di igiene, produzione e commercializzazione delle uova di categoria A. In relazione al focus principale della mia tesi sono stati inoltre descritti i principali rischi sanitari per l’uomo derivanti dal consumo di uova e ovoprodotti contaminati, accanto alle principali anomalie fisiche ed alle più comuni frodi alimentari. Più in particolare sono stati illustrati i dati raccolti a livello europeo sui focolai tossinfettivi nei quali sono state coinvolte le uova e ovoprodotti facendo particolare attenzione alle infezioni da S.enteritidis, principale microrganismo contaminante questi prodotti alimentari. Infine sono stati illustrati i principali interventi di gestione del rischio sanitario per le uova e ovoprodotti, partendo dalla fase di produzione fino ad arrivare ad interventi del consumatore, con i quali limitare la diffusione delle malattie a trasmissione alimentare.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
L'elaborato tratta delle dinamiche del pricing, analizzando nello specifico al contrapposizione fra Prezzo e Valore per il Cliente, entrando nello specifico delle metodologie per la determinazione degli stessi per poi introdurre alcune delle più comuni politiche di prezzo attuate dalle aziende. Si descrive dunque il mercato degli elettrodomestici bianchi, evidenziando come il Prezzo sia una variabile determinante in questo mercato ormai in fase di saturazione. Infine si fa un analisi di "The Business Game" analizzando la condotta del team irajoya e come il Prezzo sia stato essenziale per il successo della squadra nel mercato simulato.
Resumo:
Le epidemie tossinfettive dovute al consumo di prodotti vegetali freschi hanno subito negli ultimi anni un rilevante incremento a causa della crescente centralizzazione delle produzioni in prossimità di aree destinate alle produzioni animali, all’aumento dell’importazione e del trasporto di prodotti provenienti da grandi distanze, all’aumento del settore dei prodotti di IV gamma e all’incremento delle fasce di popolazione più sensibili ai principali patogeni degli alimenti. I dati recenti indicano che, negli USA, le tossinfezioni associate al consumo di vegetali freschi sono passati dallo 0.7% del totale negli anni ‘70, al 6% negli anni ’90, al 13% nei primo anni 2000, fino a rappresentare nel 2014 il 46% delle tossinfezioni complessive. Il consumo di pomodori freschi è stato implicato in numerose tossinfezioni, anche di ampie dimensioni, in diverse aree del globo. Oltre alle salmonellosi, i pomodori costituiscono importanti veicoli per la trasmissione per altri patogeni quali Listeria monocytogenes, Escherichia coli VTEC e Yersinia enterocolitica. Gli studi sulla composizione quali-quantitativa dei microrganismi presenti sui pomodori al momento della loro commercializzazione sono pochissimi. Per queste ragioni, nel mio elaborato mi sono occupata di valutare alcuni parametri microbiologici campionando la superficie di pomodori a grappolo di diversa tipologia, prelevati dai banchi della distribuzione, venduti sfusi o preconfezionati. Le analisi condotte erano mirate alla ricerca della carica batterica totale, di Escherichia coli, enterobatteriacee, stafilococchi, muffe e lieviti. Dai risultati ottenuti si evince che non esistono effettivamente delle differenze significative sulle caratteristiche microbiologiche dei pomodori in base al tipo di confezionamento. Inoltre si può anche osservare come le cariche microbiche individuate siano relativamente contenute e paragonabili a quelle riportate in letteratura per prodotti analoghi considerati a basso rischio.
Resumo:
In questo lavoro di tesi è stato analizzato il sistema convettivo a mesoscala (Mesoscale Convective System (MCS)) del 05/09/2015, abbattutosi sui golfi di Gaeta e di Napoli, sulla stessa città di Napoli e sull'entroterra irpino, scaricando una notevole quantità di fulmini e chicchi di grandine di dimensioni molto al di sopra di quelle usuali nella regione mediterranea, con un diametro compreso tra i 5 ed i 10 cm. Nel primo capitolo vengono presentati gli strumenti utilizzati per l'acquisizione dei dati da satellite, dei fulmini e delle mappe di previsione. Nel secondo capitolo viene effettuata un'analisi meteorologica, in cui vengono descritte le condizioni meteorologiche precedenti e contemporanee all'evento, col supporto di dati provenienti dai modelli numerici di previsione, dalle immagini da satellite e dai radiosondaggi; viene inoltre giudicata la performance di previsione dei modelli. Nel terzo capitolo viene descritto il lavoro di elaborazione dei dati da satellite e vengono esposti i risultati e i grafici ottenuti sull'evoluzione della nube. Si descrive l'elaborazione dei dati sui fulmini e, tramite mappe e grafici, si ricercano correlazioni e risultati. Nel quarto capitolo vengono mostrati alcuni fotogrammi estratti da video presenti su Internet che dimostrano l'eccezionalità dell'evento.
Resumo:
Negli ultimi anni il panorama evolutivo delle normative omologative ha dettato una severa evoluzione dei limiti sulla concentrazione degli inquinanti gassosi allo scarico, inclusa la CO2 per ragioni legate all'effetto serra ed al contenimento dei consumi di fonti energetiche non rinnovabili. L'obiettivo di sviluppo dei nuovi motori a combustione interna è principalmente rivolto all'incremento dell'efficienza di conversione limitato da fenomeni di combustione anomala quali la detonazione. Per superare tale limite è necessario individuare nuove soluzioni che riducano il rischio di detonazione all'aumentare della potenza specifica del motore tra cui trova interesse l'iniezione d'acqua in fase liquida perché l'elevato calore latente di vaporizzazione può fornire il raffreddamento della miscela desiderato. Il progetto sviluppato in questa tesi consiste nella valutazione degli effetti dell'iniezione d'acqua in un motore ad accensione comandata ad alta potenza specifica al fine di analizzarne gli effetti termo-fluidodinamici e valutarne i possibili benefici e svantaggi. La metodica di ricerca è stata di tipo numerico tramite l'adozione della simulazione CFD tridimensionale. Dopo una valutazione preliminare dei tempi caratteristici evaporativi e del rischio di saturazione, lo sviluppo di questa tesi si è articolato in un confronto tra le due soluzioni tecnologiche disponibili, iniezione d'acqua diretta e indiretta, analizzando l'influenza dell'iniezione d'acqua sulle grandezze motoristiche di maggiore interesse, quali titolo della miscela, intensità di turbolenza e temperatura, la cui ottimizzazione e il cui controllo sono fondamentali per il raggiungimento della massima efficienza di un motore ad accensione comandata e per superare il limite della detonazione.