861 resultados para Cloud Computing Modelli di Business


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La città di Rimini negli anni della Ricostruzione, a causa delle ampie distruzioni e alla crescita del turismo, è stata sottoposta ad un processo di compromissione dell’identità storica e d’impoverimento del patrimonio architettonico esistente. La tesi verte nell’elaborazione di una proposta progettuale di conversione e rifunzionalizzazione del Mercato Coperto di Rimini, appartenente al centro storico della città, in cui diverse stratificazioni del palinsesto architettonico sono parzialmente sopravvissute all’opera di speculazione edilizia. Col fine di comprendere le diverse stratificazioni presenti all’interno dell’area d’intervento, si è svolta un’analisi storica, individuando come la frammentazione dell’attuale contesto sia debitrice alla mancanza di un piano organico di ricostruzione. Indentificando l’edificio del Mercato Coperto come il fabbricato con le maggiori problematiche all’interno dell’area, si è quindi proceduto ad analizzare il tema architettonico del mercato coperto, approfondendo lo sviluppo dei diversi modelli storici ed analizzando come lo scenario attuale sia in parte debitore al processo di specializzazione che ha coinvolto questo tipo di spazi. La proposta progettuale verte sul superamento dell’attuale modello di riferimento adottato dal Mercato Coperto, che rifiuta il dialogo con il contesto circostante, acuendo le problematiche intrinseche di esso. Gli spazi interni sono stati convertiti grazie all’inserimento di nuovi volumi, capaci di ospitare un mercato coperto, una biblioteca e una piazza coperta, rielaborando in ottica moderna la coesistenza di funzioni sociali e commerciali tipiche dei modelli di riferimento più antichi. All’esterno l’edificio è stato dotato di spazi di mediazione con il contesto grazie alla trasformazione dell’involucro edilizio e all’inserimento velari mobili che definiscono una nuova piazza a disposizione della comunità e un nuovo ingresso, capace di risolvere la tensione con il patrimonio storico preesistente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La distribuzione del valore del raggio di core rispetto all’età cronologica per gli ammassi globulari della Grande Nube di Magellano (LMC) appare alquanto peculiare, poiché tutti gli ammassi più giovani sono caratterizzati da un raggio di core limitato, mentre quelli più vecchi presentano un ampio intervallo di valori. Questo comportamento, noto come “size-age conundrum”, è stato recentemente attribuito ad un diverso livello di evoluzione dinamica degli ammassi più vecchi, con i sistemi con valori elevati del raggio di core dinamicamente più giovani rispetto a quelli con configurazioni più compatte. È attesa dunque un’anticorrelazione tra il valore del raggio di core e l’età dinamica. Questo lavoro di tesi è stato indirizzato allo studio del sistema NGC1835, un ammasso globulare vecchio e compatto della LMC in grado di fornire un’ulteriore conferma del nuovo scenario. Grazie ad immagini ad alta risoluzione acquisite tramite HST è stato possibile studiarne la popolazione stellare, la struttura, l’età cronologica e il grado di evoluzione dinamica. La stima della sua età cronologica (t=12.5±1 Gyr) ha confermato che si tratta di un sistema stellare molto antico, che si è formato all’epoca di formazione della LMC. Il profilo di densità e di brillanza superficiale sono stati utilizzati per derivare le principali caratteristiche strutturali dell’ammasso, come il raggio di core rc e il raggio a metà massa rh. Infine l’età dinamica è stata calcolata tramite il parametro A+, che misura il grado di segregazione radiale delle Blue Straggler Stars. NGC1835 è risultato l’ammasso più compatto (rc=3.60’’) e dinamicamente evoluto (A+=0.28±0.04) finora studiato nella LMC e, inserendosi con precisione all’interno dell’anticorrelazione aspettata tra il raggio di core e A+, ha ulteriormente supportato lo scenario secondo cui il livello di compattezza di un sistema dipende dal suo stadio di evoluzione dinamica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratta di alcuni semplici modelli matematici, formulati in termini di equazioni differenziali ordinarie, riguardanti la crescita dei tumori e possibili trattamenti per contrastarla. Nel primo capitolo viene data un'introduzione sulla stabilità dei punti di equilibrio di sistemi di equazioni differenziali ordinarie, mentre nel secondo capitolo vengono affrontati e confrontati tre modelli ad una equazione: il modello esponenziale, il modello logistico e il modello di Gompertz. Si introducono poi due modelli a due equazioni differenziali: uno riguardante l'angiogenesi a due compartimenti e l'altro riguardante un modello lineare-quadratico applicato alla radiobiologia. Viene fatto poi un accenno ad un modello con equazioni alle derivate parziali. Infine, nell'ultimo capitolo, viene introdotto un modello a tre equazioni differenziali ordinarie a tre compartimenti in cui viene studiata l'interazione tra tre popolazioni di cellule: cellule immunitarie effettrici, cellule ospiti e cellule tumorali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo elaborato di tesi è la modellazione grafica delle cabine di pilotaggio di due elicotteri civili: si prevede una futura implementazione del modello di volo completo sul simulatore FlightGear. I due velivoli presi in considerazione sono stati sviluppati dall'azienda AgustaWestland e sono denominati AW109 e AW139. I modelli di volo sono composti da una parte grafica e dal modello dinamico del volo. La presente tesi si occupa del primo aspetto. Il lavoro di tesi è iniziato con una fase preliminare di ricerca che ha richiesto lo studio di come i modelli dinamici di volo siano implementati nel simulatore FlightGear; è stato, inoltre, approfondito l'utilizzo del linguaggio di markup XML necessario a descrivere il funzionamento e le caratteristiche dei velivoli in FlightGear. Ha fatto seguito la fase di scrittura dei file XML, facendo riferimento a modelli di elicotteri preesistenti e all'effettiva modellazione degli strumenti di bordo, attraverso il programma CAD Blender. Nella fase finale sono stati studiati e posizionati i vari strumenti principali di bordo, consultando i manuali degli elicotteri e ottenendo delle cabine di pilotaggio del tutto simili a quelle reali dei velivoli considerati. Gli sviluppi futuri di questo lavoro prevedono l'integrazione dei modelli grafici qui implementati nel modello di volo completo dei due elicotteri presi in considerazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi mostreremo qual è l'impatto delle sezioni d'urto di cattura neutronica (n, γ) mediate con la distribuzione maxwelliana di energia (MACS), sull'evoluzione delle stelle giganti rosse. Per raggiungere questo obiettivo, è stata sviluppata una procedura automatizzata per calcolare le MACS, partendo da librerie di dati nucleari valutati. Le MACS così ottenute sono state inserite come parametri di input per il codice FUNS, il quale implementa modelli di evoluzione stellare. Vengono mostrati risultati circa le abbondanze isotopiche degli elementi sintetizzati nel processo-s ottenuti usando differenti librerie. Infine viene mostrato un esempio dell'impatto dei dati ottenuti all'esperimento n_TOF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Industry 4.0 refers to the 4th industrial revolution and at its bases, we can see the digitalization and the automation of the assembly line. The whole production process has improved and evolved thanks to the advances made in networking, and AI studies, which include of course machine learning, cloud computing, IoT, and other technologies that are finally being implemented into the industrial scenario. All these technologies have in common a need for faster, more secure, robust, and reliable communication. One of the many solutions for these demands is the use of mobile communication technologies in the industrial environment, but which technology is better suited for these demands? Of course, the answer isn’t as simple as it seems. The 4th industrial revolution has a never seen incomparable potential with respect to the previous ones, every factory, enterprise, or company have different network demands, and even in each of these infrastructures, the demands may diversify by sector, or by application. For example, in the health care industry, there may be e a need for increased bandwidth for the analysis of high-definition videos or, faster speeds in order to have analytics occur in real-time, and again another application might be higher security and reliability to protect patients’ data. As seen above, choosing the right technology for the right environment and application, considers many things, and the ones just stated are but a speck of dust with respect to the overall picture. In this thesis, we will investigate a comparison between the use of two of the available technologies in use for the industrial environment: Wi-Fi 6 and 5G Private Networks in the specific case of a steel factory.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato viene trattata l’analisi del problema di soft labeling applicato alla multi-document summarization, in particolare vengono testate varie tecniche per estrarre frasi rilevanti dai documenti presi in dettaglio, al fine di fornire al modello di summarization quelle di maggior rilievo e più informative per il riassunto da generare. Questo problema nasce per far fronte ai limiti che presentano i modelli di summarization attualmente a disposizione, che possono processare un numero limitato di frasi; sorge quindi la necessità di filtrare le informazioni più rilevanti quando il lavoro si applica a documenti lunghi. Al fine di scandire la metrica di importanza, vengono presi come riferimento metodi sintattici, semantici e basati su rappresentazione a grafi AMR. Il dataset preso come riferimento è Multi-LexSum, che include tre granularità di summarization di testi legali. L’analisi in questione si compone quindi della fase di estrazione delle frasi dai documenti, della misurazione delle metriche stabilite e del passaggio al modello stato dell’arte PRIMERA per l’elaborazione del riassunto. Il testo ottenuto viene poi confrontato con il riassunto target già fornito, considerato come ottimale; lavorando in queste condizioni l’obiettivo è di definire soglie ottimali di upper-bound per l’accuratezza delle metriche, che potrebbero ampliare il lavoro ad analisi più dettagliate qualora queste superino lo stato dell’arte attuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In un mondo in continua trasformazione cresce sempre più il numero delle aziende che hanno colto l’importanza della digitalizzazione dei processi produttivi. Alcune di esse si affidano ad esperti capaci di suggerire soluzioni per ottenere servizi di alta qualità e fruibilità con l’integrazione di sistemi gestionali. Il presente lavoro di tesi ha come obiettivo l’analisi del processo produttivo di una azienda che realizza armadi per stazioni di ricarica elettrica serie terra a colonna. Si compone di sei capitoli, il primo affronta il tema della Simulazione e le sue principali caratteristiche per analizzare un processo di produzione; il secondo esamina i linguaggi, le applicazioni e i modelli di simulazione; il terzo analizza e descrive le peculiarità e le caratteristiche del software utilizzato per la simulazione; il quarto capitolo affronta il tema dell’industria 4.0 spingendo all’innovazione nei sistemi produttivi per raggiungere una produzione del tutto automatizzata e interconnessa; nel quinto viene descritto il modello digitale per ottenere in modo preciso un oggetto fisico, così da avere una Simulazione precisa, infine, il sesto esamina la Simulazione e Modellizzazione come strumento per l’ottimizzazione del processo produttivo riguardante armadi per stazioni di ricarica elettrica serie terra a colonna. Il raggiungimento dell’uso della simulazione come supporto all’analisi dinamica di un processo consente di avere una panoramica complessiva di tutte le operazioni, rappresentando, così un vantaggio per le aziende che possono valutare con oggettività soluzioni progettuali alternative, di cui è difficile prevedere il comportamento, le prestazioni e l’impatto su altri sistemi. Questi risultati sono la risposta alle necessità di disporre strumenti per l’anticipazione, il dimensionamento e il contenimento dei rischi di progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.