861 resultados para Cloud Computing Modelli di Business
Resumo:
La PKCε e la PKCδ, chinasi ubiquitariamente distribuite e ad azione pleiotropica, sono implicate del differenziamento, sopravvivenza e proliferazione cellulare. Esse sono coinvolte nel processo differenziativo delle cellule staminali ematopoietiche e in fenomeni patologici associati al compartimento sanguigno. In questa tesi sono presentati i risultati riguardanti lo studio in vitro del ruolo di PKCε e PKCδ nel contesto del differenziamento megacariocitario, in particolare si caratterizza l’espressione e la funzione di queste chinasi nel modello umano e nel modello murino di Megacariocitopoiesi, normale e patologica. Confrontando le cinetiche dei due modelli presi in analisi nello studio è stato possibile osservare come in entrambi PKCε e PKCδ dimostrino avere una chiara e specifica modulazione nel progredire del processo differenziativo. Questi dati, se confrontati, permettono di affermare che PKCε e PKCδ presentano un pattern di espressione opposto e, nel modello umano rispetto a quello murino, reciproco: nell’uomo i livelli di PKCε devono essere down-modulati, mentre nel topo, al contrario, i livelli della chinasi risultano up-modulati durante lo stesso processo. Analogamente, le CD34+ in differenziazione presentano una costante e maggiore espressione di PKCδ durante la maturazione MK, mentre nel modello murino tale proteina risulta down-modulata nella fase più tardiva di formazione della piastrina. Le chinasi mostrano in oltre di agire, nei due modelli, attraverso pathways distinti e cioè RhoA nel topo e Bcl-xL nell’uomo. È stato inoltre verificato che l’aberrante differenziamento MK osservato nella mielofibrosi primaria (PMF), è associato a difetti di espressione di PKCε e di Bcl-xL e che una forzata down-modulazione di PKCε porta ad un ripristino di un normale livello di espressione di Bcl-xL così come della popolazione di megacariociti formanti propiastrine. I dati ottenuti indicano quindi che PKCε e PKCδ svolgono un ruolo importante nel corretto differenziamento MK e che PKCε potrebbe essere un potenziale nuovo target terapeutico nelle PMF.
Resumo:
Analisi della corrente rettificata di potassio IKr all'interno di tre modelli di potenziale d'azione ventricolare umano, e confronto con dati sperimentali in letteratura.
Resumo:
Progetto di tesi svolto in azienda. Studio dei principali concetti di Business Intelligence (BI) e degli strumenti per la BI. Confronto tra i principali vendor nel mercato dell'analisi dei dati e della Business Intelligence. Studio e reigegnerizzazione di un modello per l'analisi economico finanziaria dei fornitori/clienti di un'azienda. Realizzazione di un prototipo del modello utilizzando un nuovo strumento per la reportistica: Tableau. Il prototipo si basa su dati economici finanziari estratti da banche dati online e forniti dall'azienda cliente. Implementazione finale del database e di un flusso automatico per la riclassificazione dei dati di bilancio.
Resumo:
Con l’evoluzione dei social network e degli strumenti del 2.0 (blog, wiki, forum), internet si avvia verso nuove forme di business cui artigiani e pmi possono sfruttare per nuove opportunità, unendo social network e e-commerce e capire come si è evoluto il processo di creazione e finanziamento di un prodotto. La tesi è un viaggio per scoprire quali sono queste nuove opportunità per chi pratica artigianato a livello locale, e come è cambiata la figura stessa dell’artigiano, tra questi un nuovo movimento chiamato makers, che sfruttano i nuovi strumenti, tra cui anche mezzi rivoluzionari come la stampante 3D ora accessibile a tutti per creare oggetti e nuove idee. Sarà necessario capire quali sono le vetrine online dove e come poter vendere i nostri prodotti e profilare attraverso una segmentazione l’utente medio che già utilizza il social-commerce. In seguito si tratta il caso empirico di una start-up italiana, Blomming, una dei primi a differenziarsi dagli altri marketplace più famosi come contenitore adatto ad artigiani, ma non solo. Si seguiranno le varie fasi di crescita da un’idea, introduzione nel mercato fino alla direzione a cui si sta avviando con le ultime novità effettuando un’analisi dei rischi. Infine per capire tendenze e storie di chi sta già usando queste piattaforme è stato necessario fare un profilo dell’artigiano fai-da-te medio intervistando, e successivamente creando grafici, 100 artigiani che già vendono online.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.
Resumo:
L'argomento trattato in questo elaborato riguarda le teorie, metodologie e motivazioni che hanno portato allo sviluppo di un'applicazione web per la riconciliazione incassi, funzione peculiare della contabilità di un'azienda. Alla base delle scelte progettuali adottate, vi è una serie di studi sui processi e su come questi possano influenzare l'analisi e lo sviluppo dell'applicazione stessa. Per poter effettuare una transizione di questo tipo, sono state adottate metodologie come il Business Process Management e inevitabilmente il Business Process Re-engineering, che consentono di modificare, migliorare, adattare e ottimizzare i processi.
Resumo:
La previsione della copertura RF in ambiente urbano è oggi comunemente considerato un problema risolto, con decine di modelli proposti in letteratura che mostrano una buona approssimazione rispetto alle misure. Tra questi, il ray tracing è considerato come uno dei più accurati tra i modelli disponibili. In questo lavoro si dimostra però come sia ancora necessario parecchio lavoro per fare in modo che il ray tracing possa essere effettivamente impiegato per scopi pratici.
Resumo:
La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
Nel lavoro di tesi si sono studiati i modelli di transizione di fase studiati in precedenza da Gibbs e da Cahn-Hilliard. Si è poi verificato che i due modelli sono equivalenti sotto le ipotesi della gamma convergenza
Resumo:
Il presente lavoro si prefigge come scopo la validazione e successiva taratura dei modelli di cavitazione di Merkle e Kunz, basati sulla modellazione del trasferimento di massa, implementati nel software OpenFOAM. Lo studio riguarda la fluidodinamica computazionale. L'operazione di taratura e condotta dall'utente variando i parametri liberi dei vari modelli, con lo scopo di avvicinare il risultato computazionale a quello sperimentale.
Resumo:
The evolution of the Next Generation Networks, especially the wireless broadband access technologies such as Long Term Evolution (LTE) and Worldwide Interoperability for Microwave Access (WiMAX), have increased the number of "all-IP" networks across the world. The enhanced capabilities of these access networks has spearheaded the cloud computing paradigm, where the end-users aim at having the services accessible anytime and anywhere. The services availability is also related with the end-user device, where one of the major constraints is the battery lifetime. Therefore, it is necessary to assess and minimize the energy consumed by the end-user devices, given its significance for the user perceived quality of the cloud computing services. In this paper, an empirical methodology to measure network interfaces energy consumption is proposed. By employing this methodology, an experimental evaluation of energy consumption in three different cloud computing access scenarios (including WiMAX) were performed. The empirical results obtained show the impact of accurate network interface states management and application network level design in the energy consumption. Additionally, the achieved outcomes can be used in further software-based models to optimized energy consumption, and increase the Quality of Experience (QoE) perceived by the end-users.
Resumo:
Cloud computing is a new development that is based on the premise that data and applications are stored centrally and can be accessed through the Internet. Thisarticle sets up a broad analysis of how the emergence of clouds relates to European competition law, network regulation and electronic commerce regulation, which we relate to challenges for the further development of cloud services in Europe: interoperability and data portability between clouds; issues relating to vertical integration between clouds and Internet Service Providers; and potential problems for clouds to operate on the European Internal Market. We find that these issues are not adequately addressed across the legal frameworks that we analyse, and argue for further research into how to better facilitate innovative convergent services such as cloud computing through European policy – especially in light of the ambitious digital agenda that the European Commission has set out.