861 resultados para Cloud Computing Modelli di Business
Resumo:
Il presente lavoro di tesi, svolto in collaborazione con una azienda del settore automotive, tratta lo studio di impatto di sprays combustibili su pareti calde adottando un approccio numerico CFD-3D. Viene effettuata la validazione di alcuni tra i più utilizzati modelli di interazione goccia-parete implementati nel software commerciale STAR-CD. Lo scopo principale del lavoro svolto è quello di indirizzare il lettore verso una corretta implementazione della simulazione di uno spray impattante, comprendere pregi e limiti dei modelli applicati e fornire dei criteri per effettuare la scelta tra uno di essi in funzione di condizioni di interesse motoristico.
Resumo:
Negli ultimi anni le preoccupazioni a causa dell’inquinamento ambientale sono risultate sempre maggiori, questo ha portato un sempre più crescente interesse per l’ottimizzazione nella progettazione dei motori a combustione interna per avere un aumento di potenza cercando di utilizzare meno carburante. Sempre più di frequente, al fine di studiare la combustione in modo accurato e ricavarne modelli analitici coerenti con la realtà, ci si rivolge alla simulazione numerica; Tutti i modelli di combustione utilizzati dai solutori CFD richiedono la conoscenza della velocità laminare di fiamma, questa gioca un ruolo molto importante nei motori a combustione interna così come in altre applicazioni, come il calcolo dei moti turbolenti. Il calcolo della velocità laminare può avvenire attraverso modelli di cinetica chimica dettagliata a fronte di un peso computazionale non indifferente oppure utilizzando meccanismi cinetici ridotti con conseguente perdita di accuratezza. L’obiettivo di questa tesi è lo studio della velocità di fiamma laminare al variare delle principali caratteristiche della miscela focalizzandosi sull’effetto di pressione, temperatura e di eventuali inerti (Acqua ed Egr). Attraverso la cinetica chimica dettagliata e relativo calcolo delle velocità delle reazioni di ossidazione sono state definite delle “look up tables” il più possibile dettagliate (nonostante il grande peso computazionale) al fine di avere uno strumento facilmente implementabile in solutori CFD. Inoltre, a partire dai dati acquisiti, si è passati all’analisi delle precedenti correlazioni cercando, nei limiti, di migliorarne e proporne altre per non dover ricorrere all’interpolazione delle mappe.
Resumo:
La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).
Resumo:
Dopo lo sviluppo dei primi casi di Covid-19 in Cina nell’autunno del 2019, ad inizio 2020 l’intero pianeta è precipitato in una pandemia globale che ha stravolto le nostre vite con conseguenze che non si vivevano dall’influenza spagnola. La grandissima quantità di paper scientifici in continua pubblicazione sul coronavirus e virus ad esso affini ha portato alla creazione di un unico dataset dinamico chiamato CORD19 e distribuito gratuitamente. Poter reperire informazioni utili in questa mole di dati ha ulteriormente acceso i riflettori sugli information retrieval systems, capaci di recuperare in maniera rapida ed efficace informazioni preziose rispetto a una domanda dell'utente detta query. Di particolare rilievo è stata la TREC-COVID Challenge, competizione per lo sviluppo di un sistema di IR addestrato e testato sul dataset CORD19. Il problema principale è dato dal fatto che la grande mole di documenti è totalmente non etichettata e risulta dunque impossibile addestrare modelli di reti neurali direttamente su di essi. Per aggirare il problema abbiamo messo a punto nuove soluzioni self-supervised, a cui abbiamo applicato lo stato dell'arte del deep metric learning e dell'NLP. Il deep metric learning, che sta avendo un enorme successo soprattuto nella computer vision, addestra il modello ad "avvicinare" tra loro immagini simili e "allontanare" immagini differenti. Dato che sia le immagini che il testo vengono rappresentati attraverso vettori di numeri reali (embeddings) si possano utilizzare le stesse tecniche per "avvicinare" tra loro elementi testuali pertinenti (e.g. una query e un paragrafo) e "allontanare" elementi non pertinenti. Abbiamo dunque addestrato un modello SciBERT con varie loss, che ad oggi rappresentano lo stato dell'arte del deep metric learning, in maniera completamente self-supervised direttamente e unicamente sul dataset CORD19, valutandolo poi sul set formale TREC-COVID attraverso un sistema di IR e ottenendo risultati interessanti.
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
Lo studio di modelli teorici e matematici della memoria semantica ricopre un ruolo importante nelle neuroscienze cognitive. I modelli neuro-computazionali sviluppati negli ultimi decenni vengono impiegati per spiegare e simulare come le informazioni recepite dall’esterno vengono memorizzate e successivamente utilizzate. In questo elaborato si sviluppa un modello di rete semantica per il riconoscimento di concetti, definiti come insieme di caratteristiche. Fondamentale è il ruolo assunto dalle diverse proprietà, che sono state suddivise fra salienti e marginali, distintive e condivise. I concetti presi in considerazione con le rispettive feature, fanno parte di un ampio data set fornito dalla Dott.ssa Catricalà. La rete sviluppata rientra tra i modelli di massa neuronale che considera quattro popolazioni di neuroni: piramidali, inter-neuroni eccitatori, inter-neuroni inibitori lenti e inter-neuroni inibitori veloci. Il modello sviluppato si basa sullo studio del professor Ursino et al. e utilizza oscillatori in banda gamma. Tramite sincronizzazione di queste oscillazioni è possibile memorizzare concetti e successivamente recuperarli, mantenendoli in memoria simultaneamente. Il richiamo di più concetti contemporaneamente avviene tramite desincronizzazione delle oscillazioni ad opera di un inibitore globale, modellato tramite funzione a gradino. Per modellare l’apprendimento della rete è stata utilizzata la regola di Hebb, sfruttando soglie pre e post-sinaptiche differenti così da costruire sinapsi asimmetriche che permettono una differenziazione delle feature.
Resumo:
L’elaborato affronta il tema della massiccia diffusione di disinformazione tramite internet sotto il profilo del diritto costituzionale, nell’ottica di indagare se le dimensioni del fenomeno richiedano l’elaborazione di principi e soluzioni nuove ovvero se i paradigmi costituzionali enucleati dalla tradizione costituzionalistica con riferimento alla libertà d’espressione forniscano gli strumenti sufficienti per un intervento efficace. In tale ottica, il lavoro premette una ricostruzione del fenomeno della disinformazione nel tentativo di individuare il perimetro socio-cognitivo e tecnologico entro cui la medesima prolifera, descrivendo gli elementi che distinguono l’informazione diffusa dai nuovi media rispetto a quella veicolata dai media mainstream. Ciò premesso, lo studio passa a delineare lo “statuto costituzionale” del falso, indagando la rilevanza che la menzogna assume sotto il profilo costituzionale nel suo rapporto con la libertà di manifestazione del pensiero negli ordinamenti interno, europeo e statunitense. L’analisi prosegue poi con l’esame delle politiche di contrasto alla disinformazione introdotte da singoli Stati (prevalentemente Germania, Francia e Italia), Unione europea, e piattaforme, con l’obiettivo di mettere in luce vantaggi e limiti dei modelli di eteroregolamentazione, coregolamentazione e autoregolamentazione. Da ultimo, l’elaborato scompone alcune delle azioni e misure passate in rassegna e le analizza con la lente d’ingrandimento della libertà di manifestazione del pensiero, ordinandone i contenuti secondo la specifica propensione a comprimere la libertà d’espressione. L’indagine si conclude con alcuni brevi spunti conclusivi che evidenziano l’esigenza, in base ai principi costituzionali analizzati, che eventuali interventi normativi siano se del caso volti alla regolazione delle piattaforme, ovvero dei “contenitori”, lasciano i contenuti al libero scambio delle idee.
Resumo:
Hadrontherapy employs high-energy beams of charged particles (protons and heavier ions) to treat deep-seated tumours: these particles have a favourable depth-dose distribution in tissue characterized by a low dose in the entrance channel and a sharp maximum (Bragg peak) near the end of their path. In these treatments nuclear interactions have to be considered: beam particles can fragment in the human body releasing a non-zero dose beyond the Bragg peak while fragments of human body nuclei can modify the dose released in healthy tissues. These effects are still in question given the lack of interesting cross sections data. Also space radioprotection can profit by fragmentation cross section measurements: the interest in long-term manned space missions beyond Low Earth Orbit is growing in these years but it has to cope with major health risks due to space radiation. To this end, risk models are under study: however, huge gaps in fragmentation cross sections data are currently present preventing an accurate benchmark of deterministic and Monte Carlo codes. To fill these gaps in data, the FOOT (FragmentatiOn Of Target) experiment was proposed. It is composed by two independent and complementary setups, an Emulsion Cloud Chamber and an electronic setup composed by several subdetectors providing redundant measurements of kinematic properties of fragments produced in nuclear interactions between a beam and a target. FOOT aims to measure double differential cross sections both in angle and kinetic energy which is the most complete information to address existing questions. In this Ph.D. thesis, the development of the Trigger and Data Acquisition system for the FOOT electronic setup and a first analysis of 400 MeV/u 16O beam on Carbon target data acquired in July 2021 at GSI (Darmstadt, Germany) are presented. When possible, a comparison with other available measurements is also reported.
Resumo:
Time Series Analysis of multispectral satellite data offers an innovative way to extract valuable information of our changing planet. This is now a real option for scientists thanks to data availability as well as innovative cloud-computing platforms, such as Google Earth Engine. The integration of different missions would mitigate known issues in multispectral time series construction, such as gaps due to clouds or other atmospheric effects. With this purpose, harmonization among Landsat-like missions is possible through statistical analysis. This research offers an overview of the different instruments from Landsat and Sentinel missions (TM, ETM, OLI, OLI-2 and MSI sensors) and products levels (Collection-2 Level-1 and Surface Reflectance for Landsat and Level-1C and Level-2A for Sentinel-2). Moreover, a cross-sensors comparison was performed to assess the interoperability of the sensors on-board Landsat and Sentinel-2 constellations, having in mind a possible combined use for time series analysis. Firstly, more than 20,000 pairs of images almost simultaneously acquired all over Europe were selected over a period of several years. The study performed a cross-comparison analysis on these data, and provided an assessment of the calibration coefficients that can be used to minimize differences in the combined use. Four of the most popular vegetation indexes were selected for the study: NDVI, EVI, SAVI and NDMI. As a result, it is possible to reconstruct a longer and denser harmonized time series since 1984, useful for vegetation monitoring purposes. Secondly, the spectral characteristics of the recent Landsat-9 mission were assessed for a combined use with Landsat-8 and Sentinel-2. A cross-sensor analysis of common bands of more than 3,000 almost simultaneous acquisitions verified a high consistency between datasets. The most relevant discrepancy has been observed in the blue and SWIRS bands, often used in vegetation and water related studies. This analysis was supported with spectroradiometer ground measurements.
Resumo:
Nel panorama attuale dei media audiovisivi caratterizzato da un’ampia quantità di contenuti e da modalità diverse per fruirli è fondamentale per i distributori riuscire a emergere tra la concorrenza. In particolar modo, nel settore televisivo dove ci sono tante opportunità di visione per i consumatori, che possono scegliere tra diverse tipologie di canali i quali offrono multiple modalità di accesso e per la fruizione dei propri contenuti. L’obiettivo dello studio è mostrare la rilevanza della strategia di branding della propria impresa televisiva per riuscire nell’intento di differenziarsi dalla concorrenza e promuoversi, facendo arrivare al pubblico la propria value proposition, l’identità dell’attività in questione. Il TV branding impatta sulle scelte comunicative, valoriali, grafiche, visive e sonore del player televisivo, ma influenza anche le decisioni sul prodotto e i conduttori. Rappresenta la costruzione del brand nella sua interezza. Nel lavoro ci sarà un’analisi sul complesso scenario del mercato televisivo attuale per passare ad analizzare i vari punti dell’attività di branding che i vertici delle imprese televisive devono curare per creare valore e spiccare tra la concorrenza. Infine, il progetto converge sull’analisi dell’attività di marketing di tre casi, che si diversificano tra loro per le aree di business che coprono e per le differenti strategie di branding, ma i contenuti sportivi fanno da trade union tra queste realtà. Sky Sport è il player leader del settore della produzione e distribuzione di contenuti sportivi e opera in modalità multicanale. Eurosport è il player dedicato allo sport di Discovery, “la casa degli sport olimpici”. La strategia adottata per la fruizione dei contenuti sportivi è multipiattaforma. Infine, l’analisi verte sull’unicità del caso DAZN, l’OTT esclusivamente dedicata allo sport. DAZN mira a cambiare le modalità di vivere i contenuti sportivi. L'OTT sportiva rivolge attenzione alla valorizzazione del proprio brand.
Resumo:
L'elaborato illustra il percorso di evoluzione e affermazione della società di produzione e distribuzione cinematografica A24, nel contesto dell'odierna industria indipendente nordamericana. L'analisi prende in considerazione i presupposti storici e industriali che hanno favorito la nascita di A24, osservando poi i principali sviluppi manageriali, economici e artistici che hanno caratterizzato l'attività dello studio fino a oggi. La trattazione contestualizza l'operato dello studio all'interno dello scenario indipendente delineatosi tra la fine degli anni '80 e i primi anni duemila, enfatizzando le specificità e i punti di forza del modello di business di A24. Particolare attenzione è riservata alla costruzione e alla progressiva affermazione identitaria di A24 come brand riconoscibile e capace di fidelizzare significativi segmenti di audience. Lo studio dedica infatti ampio spazio a un'analisi delle metodologie di posizionamento adottate da A24 all'interno del mercato indipendente, prendendo in considerazione tanto la tipologia di proposta cinematografica offerta dallo studio, quanto le innovative ed efficaci modalità che ne favoriscono la circolazione presso il pubblico. La trattazione intende dunque individuare le principali ragioni del successo riscontrato dal modello A24, anche allo scopo di mettere in luce i meccanismi che regolano l'industria indipendente nordamericana, attualmente segnata da radicali cambiamenti imputabili all'ascesa degli operatori OTT, al parziale riposizionamento della sala all'interno del ciclo di sfruttamento commerciale del film e, negli ultimi mesi, alla crisi sistemica dettata dal Covid-19.
Resumo:
L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.
Resumo:
Negli ultimi anni la forte evoluzione tecnologica ha avuto un impatto significativo su un ampio numero di settori ed in particolar modo sull’industria manifatturiera, specie in quelle aziende che hanno saputo cogliere le opportunità di business che essa ha generato. La forte dinamicità dei requisiti con cui si sono trovati a fare i conti gli sviluppatori software, ha portato alla stesura, poco più di vent’anni fa’, dell’oramai noto "Manifesto per lo Sviluppo Agile di Software" all’interno del quale sono introdotti i principi cardini che in un secondo momento hanno contribuito alla formazione dell’approccio Agile. Questa occasione ha senza dubbio cambiato radicalmente l’ottica con cui era sempre stato visto, almeno fino a quel momento, il classico processo utilizzato per concepire e successivamente sviluppare il codice: costituito da una sequenza di fasi predefinite, dove l’insieme dei requisiti era definito nella sua interezza, prima della fase di effettiva implementazione. Il metodo di lavoro più "tradizionale" non rappresenta un approccio sbagliato o inefficace ma è una modalità che si prestava bene ad essere impiegata in scenari dove il concetto di business assumeva connotati diversi rispetto a quello degli ultimi anni, caratterizzati da un’elevata incertezza, repentini cambiamenti e alta probabilità di dover ridefinire i requisiti, al contrario i cambiamenti avvenivano con una scarsa frequenza e per questo risultavano facilmente gestibili. La presente attività di tesi si propone di analizzare i maggiori vantaggi e le principali criticità, che l’impiego di metodologie Agile devono affrontare all’interno di un contesto manifatturiero ed in particolare in un caso di studio reale: un’iniziativa progettuale per la realizzazione di distinte di servizio e istruzioni di montaggio e smontaggio elettroniche all’interno dell’organizzazione Bonfiglioli S.P.A., una multinazionale leader nella produzione e nella vendita di riduttori e motoriduttori.
Resumo:
Negli ultimi anni la necessità di processare e mantenere dati di qualsiasi natura è aumentata considerevolmente, in aggiunta a questo, l’obsolescenza del modello centralizzato ha contribuito alla sempre più frequente adozione del modello distribuito. Inevitabile dunque l’aumento di traffico che attraversa i nodi appartenenti alle infrastrutture, un traffico sempre più in aumento e che con l’avvento dell’IoT, dei Big Data, del Cloud Computing, del Serverless Computing etc., ha raggiunto picchi elevatissimi. Basti pensare che se prima i dati erano contenuti in loco, oggi non è assurdo pensare che l’archiviazione dei propri dati sia completamente affidata a terzi. Così come cresce, quindi, il traffico che attraversa i nodi facenti parte di un’infrastruttura, cresce la necessità che questo traffico sia filtrato e gestito dai nodi stessi. L’obbiettivo di questa tesi è quello di estendere un Message-oriented Middleware, in grado di garantire diverse qualità di servizio per la consegna di messaggi, in modo da accelerarne la fase di routing verso i nodi destinazione. L’estensione consiste nell’aggiungere al Message-oriented Middleware, precedentemente implementato, la funzione di intercettare i pacchetti in arrivo (che nel caso del middleware in questione possono rappresentare la propagazione di eventi) e redirigerli verso un nuovo nodo in base ad alcuni parametri. Il Message-oriented Middleware oggetto di tesi sarà considerato il message broker di un modello pub/sub, pertanto la redirezione deve avvenire con tempi molto bassi di latenza e, a tal proposito, deve avvenire senza l’uscita dal kernel space del sistema operativo. Per questo motivo si è deciso di utilizzare eBPF, in particolare il modulo XDP, che permette di scrivere programmi che eseguono all’interno del kernel.
Resumo:
Il presente elaborato si propone di studiare una soluzione ottimale per il dimensionamento di lotti economici di produzione nel settore lavorazioni meccaniche: il caso è stato studiato presso l’azienda Bonfiglioli Riduttori S.p.A all’interno del plant EVO, situato a Calderara di Reno (BO). Bonfiglioli Riduttori S.p.A è un’azienda che opera a livello globale occupandosi dell’intero ciclo di progettazione, produzione e distribuzione di una gamma completa di motoriduttori, dispositivi di azionamento, riduttori epicicloidali ed inverter. Il plant EVO è composto da due aree, produzione e assemblaggio, tra i quali è presente un magazzino che funge da buffer interoperazionale, contenente tutti i componenti necessari per il montaggio dei riduttori. L’obiettivo che ci si è posti è stato quello di trovare il lotto economico di produzione che fosse in grado di minimizzare i costi di gestione delle scorte ed i costi di set up della produzione, garantendo che non vi fossero rotture di stock, ossia mancanza di materiale con corrispondenti fermi macchina nel reparto assemblaggio. Ci si è concentrati sul ciclo di lavoro di uno dei componenti principali del riduttore, le corone in acciaio, e sono stati analizzati i seguenti modelli: i modelli di gestione tradizionale delle scorte, quali il modello del Lotto Economico di Acquisto (EOQ) ed il modello del Lotto Economico di Produzione (EMQ) ed il modello di gestione integrata delle scorte, noto come Consignment Stock. Studiando i risultati ottenuti è emerso che la soluzione ideale che verrà implementata a partire dai prossimi mesi è quella ibrida, ossia per i codici caratterizzati da bassi volumi si procede con i lotti calcolati attraverso il Consignment stock, caratterizzati da lotti con volumi elevati che comportano pochi set up, mentre per i codici alto rotanti si è cercato di aumentare il più possibile il numero di set up per abbassare il volume di ogni lotto e di conseguenza i costi di giacenza a magazzino.