249 resultados para Cloud Computing Modelli di Business


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione dei vantaggi della tecnologia delle fondazioni da pozzo per le pile da ponte. Analisi dei carichi di un viadotto esistente a struttura mista e studio agli stati limite delle più svantaggiose condizioni di carico. Analisi sismica della pila. Progetto e verifica della pila, del plinto e del pozzo nelle diverse fasi di realizzazione e per le combinazioni di carico considerate. Verifiche del terreno, con riferimento ai criteri di dimensionamento del Prof. Jamiolkowski. Analisi tenso-deformativa del terreno con software Plaxis2D e Midas-GTS (3D). Confronti fra il metodo analitico adottato nelle verifiche ed i risultati numerici. Norme di riferimento: NTC2008, Istruzione N°I/SC/PS-OM/2298, Ordinanza 3274 come modificato dall'OPCM 3431

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi della corrente rettificata di potassio IKr all'interno di tre modelli di potenziale d'azione ventricolare umano, e confronto con dati sperimentali in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto di tesi svolto in azienda. Studio dei principali concetti di Business Intelligence (BI) e degli strumenti per la BI. Confronto tra i principali vendor nel mercato dell'analisi dei dati e della Business Intelligence. Studio e reigegnerizzazione di un modello per l'analisi economico finanziaria dei fornitori/clienti di un'azienda. Realizzazione di un prototipo del modello utilizzando un nuovo strumento per la reportistica: Tableau. Il prototipo si basa su dati economici finanziari estratti da banche dati online e forniti dall'azienda cliente. Implementazione finale del database e di un flusso automatico per la riclassificazione dei dati di bilancio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con l’evoluzione dei social network e degli strumenti del 2.0 (blog, wiki, forum), internet si avvia verso nuove forme di business cui artigiani e pmi possono sfruttare per nuove opportunità, unendo social network e e-commerce e capire come si è evoluto il processo di creazione e finanziamento di un prodotto. La tesi è un viaggio per scoprire quali sono queste nuove opportunità per chi pratica artigianato a livello locale, e come è cambiata la figura stessa dell’artigiano, tra questi un nuovo movimento chiamato makers, che sfruttano i nuovi strumenti, tra cui anche mezzi rivoluzionari come la stampante 3D ora accessibile a tutti per creare oggetti e nuove idee. Sarà necessario capire quali sono le vetrine online dove e come poter vendere i nostri prodotti e profilare attraverso una segmentazione l’utente medio che già utilizza il social-commerce. In seguito si tratta il caso empirico di una start-up italiana, Blomming, una dei primi a differenziarsi dagli altri marketplace più famosi come contenitore adatto ad artigiani, ma non solo. Si seguiranno le varie fasi di crescita da un’idea, introduzione nel mercato fino alla direzione a cui si sta avviando con le ultime novità effettuando un’analisi dei rischi. Infine per capire tendenze e storie di chi sta già usando queste piattaforme è stato necessario fare un profilo dell’artigiano fai-da-te medio intervistando, e successivamente creando grafici, 100 artigiani che già vendono online.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'argomento trattato in questo elaborato riguarda le teorie, metodologie e motivazioni che hanno portato allo sviluppo di un'applicazione web per la riconciliazione incassi, funzione peculiare della contabilità di un'azienda. Alla base delle scelte progettuali adottate, vi è una serie di studi sui processi e su come questi possano influenzare l'analisi e lo sviluppo dell'applicazione stessa. Per poter effettuare una transizione di questo tipo, sono state adottate metodologie come il Business Process Management e inevitabilmente il Business Process Re-engineering, che consentono di modificare, migliorare, adattare e ottimizzare i processi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La previsione della copertura RF in ambiente urbano è oggi comunemente considerato un problema risolto, con decine di modelli proposti in letteratura che mostrano una buona approssimazione rispetto alle misure. Tra questi, il ray tracing è considerato come uno dei più accurati tra i modelli disponibili. In questo lavoro si dimostra però come sia ancora necessario parecchio lavoro per fare in modo che il ray tracing possa essere effettivamente impiegato per scopi pratici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La congestione del traffico è un fenomeno molto familiare, con il quale si ha a che fare nelle più svariate occasioni. Dal punto di vista fisico, il flusso del traffico rappresenta un sistema di particelle interagenti (i ve- icoli) in condizione di non equilibrio. L’effetto complessivo di un sistema composto da molte particelle interagenti è la creazione di una instabil- ità, osservata empiricamente, nello stato di free flow (scorrimento libero), causata dall’aumentare delle fluttuazioni. In questi casi di parla di phan- tom traffic jam, ovvero una congestione che ha origine senza cause appar- enti, come incidenti o lavori in corso. Sarà dimostrato come la condizione di stop & go si verifichi spontaneamente se la densità media dei veicoli eccede un certo valore critico. L’importanza di poter predire una congestione stradale non è un problema puramente matematico, ma ha risvolti socio-economici non indifferenti. Infatti, le caratteristiche della mobilità e dei sistemi di trasporto sono strettamente legate alla struttura della comunità e alla qualità della vita. Con il seguente studio si cercherà di trovare un osservabile facilmente calcolabile, che potrebbe essere un predittore della formazione di uno stato congestionato con un intervallo di tempo sufficientemente adeguato. A tal fine sono state prese in considerazione misure relative alle condizioni del traffico su strade provinciali dell’Emilia-Romagna, tramite un sistema MTS composto da 3509 spire che registra i passaggi delle macchine; in seguito, per poter avere una comprensione maggiore dei fenomeni che si manifestano durante la transizione a stato congestionato, si è provveduto a creare un modello matematico utilizzato per le simulazioni al computer. I risultati ottenuti dalle simulazioni, poi, sono stati utilizzati per trovare l’osservabile cercato nei dati pervenuti dalle strade campione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel lavoro di tesi si sono studiati i modelli di transizione di fase studiati in precedenza da Gibbs e da Cahn-Hilliard. Si è poi verificato che i due modelli sono equivalenti sotto le ipotesi della gamma convergenza

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro si prefigge come scopo la validazione e successiva taratura dei modelli di cavitazione di Merkle e Kunz, basati sulla modellazione del trasferimento di massa, implementati nel software OpenFOAM. Lo studio riguarda la fluidodinamica computazionale. L'operazione di taratura e condotta dall'utente variando i parametri liberi dei vari modelli, con lo scopo di avvicinare il risultato computazionale a quello sperimentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è stato analizzato e tradotto nel linguaggio di alto livello AMPL un modello di ILP relativo alla pianificazione tattica del blocco operatorio. L'obiettivo è quello di permettere l'interfacciamento con numerosi solver -commerciali e non- al fine di analizzarne le prestazioni. In seguito a un'introduzione in merito al problema dell'Operating Room Management e a una descrizione del contesto sanitario regionale dell'Emilia-Romagna, si è proceduto alla descrizione formale del modello. Infine sono state eseguite numerose risoluzioni con i solver cplex e gurobi al variare di alcuni parametri in ingresso, tra cui il numero di sale operatorie, di infermieri e operatori sanitari, e di pazienti in lista d'attesa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'era di Internet e della digitalizzazione, anche la telefonia ha avuto la possibilità di evolversi, e grazie alle tecnologie Voice-over-IP è stato possibile realizzare servizi di comunicazione avanzata su reti di dati. Anche se la comunicazione vocale è l'aspetto chiave di questi sistemi, le reti VoIP supportano altri tipi di servizi, tra cui video, messaggistica istantanea, condivisione di file, ecc. Il successo di questa nuova tipologia di rete è dovuto ad una migliore flessibilità rispetto ai vecchi sistemi analogici, grazie ad architetture aperte e implementazioni a livello software, e soprattutto ad un minor costo legato alle apparecchiature ed ai collegamenti utilizzati, ed ai nuovi modelli di business e di consumo sempre più orientati allo sfruttamento della connettività a banda larga. Tuttavia, l'implementazione dei sistemi VoIP rappresenta anche un grado di complessità maggiore in termini di architetture di rete, di protocolli, e di implementazione, e con questo ne segue un incremento delle possibili vulnerabilità. Una falla nella sicurezza in questi sistemi può portare a disservizi e violazione della privacy per gli utenti con conseguenti ripercussioni economiche per i relativi gestori. La tesi analizza la sicurezza delle reti VoIP concentrandosi sul protocollo che sta alla base dei servizi multimediali, il protocollo SIP. SIP è un protocollo di livello applicativo realizzato per creare, modificare e terminare delle sessioni multimediali tra due o più utenti. Dopo un'introduzione alle generalità del protocollo, vengono esaminate le classi di vulnerabilità delle reti VoIP e gli attacchi a SIP, e vengono presentate alcune contromisure attuabili. Viene mostrato un esempio di come vengano attuati alcuni dei principali attacchi a SIP tramite l'utilizzo di appositi strumenti. L'eborato conclude con alcune considerazioni sulle minacce al protocollo e sugli obiettivi futuri che la comunità scientifica dovrebbe perseguire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Cloud computing è probabilmente l'argomento attualmente più dibattuto nel mondo dell'Information and Communication Technology (ICT). La diffusione di questo nuovo modo di concepire l'erogazione di servizi IT, è l'evoluzione di una serie di tecnologie che stanno rivoluzionando le modalit à in cui le organizzazioni costruiscono le proprie infrastrutture informatiche. I vantaggi che derivano dall'utilizzo di infrastrutture di Cloud Computing sono ad esempio un maggiore controllo sui servizi, sulla struttura dei costi e sugli asset impiegati. I costi sono proporzionati all'eettivo uso dei servizi (pay-per-use), evitando dunque gli sprechi e rendendo più efficiente il sistema di sourcing. Diverse aziende hanno già cominciato a provare alcuni servizi cloud e molte altre stanno valutando l'inizio di un simile percorso. La prima organizzazione a fornire una piattaforma di cloud computing fu Amazon, grazie al suo Elastic Computer Cloud (EC2). Nel luglio del 2010 nasce OpenStack, un progetto open-source creato dalla fusione dei codici realizzati dall'agenzia governativa della Nasa[10] e dell'azienda statunitense di hosting Rackspace. Il software realizzato svolge le stesse funzioni di quello di Amazon, a differenza di questo, però, è stato rilasciato con licenza Apache, quindi nessuna restrizione di utilizzo e di implementazione. Oggi il progetto Openstack vanta di numerose aziende partner come Dell, HP, IBM, Cisco, e Microsoft. L'obiettivo del presente elaborato è quello di comprendere ed analizzare il funzionamento del software OpenStack. Il fine principale è quello di familiarizzare con i diversi componenti di cui è costituito e di concepire come essi interagiscono fra loro, per poter costruire infrastrutture cloud del tipo Infrastructure as a service (IaaS). Il lettore si troverà di fronte all'esposizione degli argomenti organizzati nei seguenti capitoli. Nel primo capitolo si introduce la definizione di cloud computing, trattandone le principali caratteristiche, si descrivono poi, i diversi modelli di servizio e di distribuzione, delineando vantaggi e svantaggi che ne derivano. Nel secondo capitolo due si parla di una delle tecnologie impiegate per la realizzazione di infrastrutture di cloud computing, la virtualizzazione. Vengono trattate le varie forme e tipologie di virtualizzazione. Nel terzo capitolo si analizza e descrive in dettaglio il funzionamento del progetto OpenStack. Per ogni componente del software, viene illustrata l'architettura, corredata di schemi, ed il relativo meccanismo. Il quarto capitolo rappresenta la parte relativa all'installazione del software e alla configurazione dello stesso. Inoltre si espongono alcuni test effettuati sulla macchina in cui è stato installato il software. Infine nel quinto capitolo si trattano le conclusioni con le considerazioni sugli obiettivi raggiunti e sulle caratteristiche del software preso in esame.