1000 resultados para moto,gestione,progetti,sviluppo,azienda,R
Resumo:
Il presente elaborato propone un progetto di digitalizzazione e ottimizzazione del flusso informativo a supporto della gestione dei ricambi dell'azienda IMA S.P.A. In particolare, l'obiettivo principale è quello di rendere più efficiente e priva di sprechi la modalità di richiesta del prelievo dei componenti commerciali, che ad oggi risulta essere troppo fragile e onerosa. Essa infatti, viene eseguita attraverso la stampa di un buono di prelievo cartaceo, che costituisce il supporto all’informazione e l’input per dare il via all’attività di prelievo. La proposta sviluppata in questa tesi è quella di attuare un processo di dematerializzazione, eliminando il cartaceo a favore di una completa gestione dei dati a sistema. Per farlo è stata pensata una modifica al flusso attualmente esistente, attraverso l’implementazione di una nuova transazione sul software gestionale SAP, che consenta la creazione di una lista di ricambi da prelevare. Questa lista sarà il nuovo input necessario all’attivazione del picking nel magazzino centralizzato.
Resumo:
I contenuti e i servizi offerti dal Web hanno subito negli anni una costante e continua evoluzione, dovuti alla maggiore disponibilità di dispositivi in grado di navigarlo. Oggi i requisiti e le aspettative che gli utenti hanno nei confronti delle applicazioni Web sono sempre maggiori, desiderano un accesso ai contenuti sempre più rapido, interfacce semplici e facili da usare, oltre che reattive, e che tali contenuti siano accessibili da una vasta gamma di dispositivi che presentino sempre più funzionalità. Le aziende devono essere pronte a rispondere a queste esigenze e a fornire agli utenti finali la miglior esperienza possibile, rimanendo aggiornati sulle tecnologie per la creazione di applicazioni Web. Questo è ancora più importante per un'azienda possiede più prodotti, sviluppati da team diversi che usano tecnologie diverse. Per alcune aziende è importante che i propri prodotti, sebbene trattino tematiche differenti, si presentino con interfacce che rimandino al proprio marchio, non solo grazie al nome o al logo, quanto più nei componenti utilizzati per creare le interfacce. Succede così che i vari team devono progettare e sviluppare i componenti nella propria tecnologia, in modo che abbiano le stesse funzionalità, stesso stile e stesso comportamento in ogni situazione. Il più delle volte questo è difficile da realizzare e anche costoso da mantenere. Riuscire a centralizzare lo sviluppo di questi elementi in un unico punto aiuta l'azienda a mantenere bassi i costi di manutenzione e a rendere omogenea l'esperienza degli utenti tra i vari prodotti. Obiettivo del lavoro svolto è illustrare le potenzialità e l'utilità fornite dall'introduzione di una suite di componenti personalizzati, seguendo lo standard dei Web Component, all'interno dei prodotti forniti da una grande impresa. L'analisi si concentra sulll'esperienza di chi utilizza tali componenti all'interno dei propri progetti per creare l'interfaccia utente da presentare poi agli utenti finali.
Resumo:
L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.
Resumo:
Il crescente aumento del numero di dispositivi connessi in rete e delle applicazioni che vengono sviluppate su di essa ha trasformato completamente lo standard delle applicazioni che una volta erano single-user, facendo quindi arrivare lo standard ad un modello multi-utente, dove si ha un ambiente collaborativo e condiviso in cui le azioni di un determinato utente vanno ad influire anche sugli altri. Altra necessità al giorno d'oggi è inoltre che queste applicazioni multi-utente siano anche real-time, ovvero che si aggiornino in tempo reale e che di conseguenza l'azione di un singolo utente debba essere trasmessa e notificata a tutti gli altri in modo che possano gestirla di conseguenza. Lo sviluppo di tali applicazioni risulta quindi particolarmente complesso, tuttavia esistono anche soluzioni architetturali e framework che risultano essere dedicati all'implementazione di tale tipo di applicazioni, il quale obiettivo è quindi quello di semplificarne e velocizzarne lo sviluppo, tramite l'utilizzo di pattern o architetture mirate all'implementazione di un tipo specifico di tali applicazioni. Un esempio di tali soluzioni è Croquet, che permette la creazione di applicazioni real-time multi-utente, senza la necessità di scrivere alcun codice per la parte server o per la gestione delle comunicazioni tra i peer, ma solamente sviluppando il modello del client, ovvero la parte in esecuzione sulla macchina dell'utente. Questa tesi andrà quindi ad effettuare uno studio sul funzionamento e sull'architettura di Croquet proseguendo quindi con lo sviluppo di un middleware che permetta la creazione di applicazioni real-time multi-utente indipendenti dal linguaggio di sviluppo, le quali si potranno quindi appoggiare sull'architettura di Croquet per funzionare e comunicare, avendo quindi a disposizione tutte le garanzie che vengono offerte da Croquet e dalla sua architettura.
Resumo:
I dati sono una risorsa di valore inestimabile per tutte le organizzazioni. Queste informazioni vanno da una parte gestite tramite i classici sistemi operazionali, dall’altra parte analizzate per ottenere approfondimenti che possano guidare le scelte di business. Uno degli strumenti fondamentali a supporto delle scelte di business è il data warehouse. Questo elaborato è il frutto di un percorso di tirocinio svolto con l'azienda Injenia S.r.l. Il focus del percorso era rivolto all'ottimizzazione di un data warehouse che l'azienda vende come modulo aggiuntivo di un software di nome Interacta. Questo data warehouse, Interacta Analytics, ha espresso nel tempo notevoli criticità architetturali e di performance. L’architettura attualmente usata per la creazione e la gestione dei dati all'interno di Interacta Analytics utilizza un approccio batch, pertanto, l’obiettivo cardine dello studio è quello di trovare soluzioni alternative batch che garantiscano un risparmio sia in termini economici che di tempo, esplorando anche la possibilità di una transizione ad un’architettura streaming. Gli strumenti da utilizzare in questa ricerca dovevano inoltre mantenersi in linea con le tecnologie utilizzate per Interacta, ossia i servizi della Google Cloud Platform. Dopo una breve dissertazione sul background teorico di questa area tematica, l'elaborato si concentra sul funzionamento del software principale e sulla struttura logica del modulo di analisi. Infine, si espone il lavoro sperimentale, innanzitutto proponendo un'analisi delle criticità principali del sistema as-is, dopodiché ipotizzando e valutando quattro ipotesi migliorative batch e due streaming. Queste, come viene espresso nelle conclusioni della ricerca, migliorano di molto le performance del sistema di analisi in termini di tempistiche di elaborazione, di costo totale e di semplicità dell'architettura, in particolare grazie all'utilizzo dei servizi serverless con container e FaaS della piattaforma cloud di Google.
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
In questo elaborato vengono introdotte le caratteristiche fondamentali della blockchain ed in particolare dello sviluppo di smart contract tramite Solidity nella Blockchain Ethereum. Successivamente, sono illustrate le applicazioni di questa tecnologia in ambito sanitario e viene presentato il progetto sviluppato. In seguito, viene spiegata nel dettaglio l’implementazione del già menzionato progetto e si mostrano i test svolti; viene, inoltre, mostrata una semplice analisi sul costo computazionale, in termini di gas, del codice scritto. Questa tecnologia si presta efficacemente a sviluppi di applicazioni in ambito sanitario per le sue proprietà, come l’immutabilità e la privacy; nel sistema sviluppato la profonda sicurezza delle transazioni (data dalla blockchain) rende possibile l’acquisto e la gestione di un’assicurazione sanitaria senza la necessità di appoggiarsi a terze parti. In conclusione, vengono discusse possibili modifiche e miglioramenti al sistema proposto.
Resumo:
Diverse organizzazioni nel mercato si chiedono come fare per permettere uno sviluppo della propria azienda in un mercato caratterizzato da sempre più competitor e un numero sempre maggiore di canali su cui i consumatori possono essere raggiunti. Fare branding è la risposta. Il branding è una pratica di marketing che permette all’azienda di distinguere i propri prodotti o servizi e quindi di identificare ciò che l’azienda stessa vende. Il processo di branding è un processo continuo e perpetuo che nel tempo permette alle aziende di plasmare la percezione di un marchio nella mente del consumatore. Le strategie di branding che possono essere applicate sono diverse e dipendono molto dal budget a disposizione dell’azienda. Per questo, nel caso di piccole-medio imprese con dei budget limitati, lo sviluppo della marca risulta essere un processo strategico per la loro crescita e diventa necessario in un mercato saturo come quello attuale. Risulta quindi importante per le PMI utilizzare e sfruttare il brand come un vero contenitore di significati, in grado di dare coerenza alla comunicazione e alle azioni aziendali e per identificare una direzione precisa da raggiungere. L’obiettivo di questo studio è quello di determinare in che modo ad oggi l’azienda Valentina Giorgi, piccola-media impresa italiana, utilizza il proprio brand sia a livello comunicazionale sia a livello distributivo per crescere come azienda ed espandersi. A questo proposito sono state indagate sia le strategie comunicative e distributive attuate finora dall’azienda, per comprendere il motivo per cui sono state svolte e analizzarne l’efficacia, oltre a ricercare lo scostamento presente tra l’idea che l’azienda ha costruito del brand e quella effettivamente percepita dai consumatori.
Resumo:
La tesi ha lo scopo di illustrare come sia possibile l’applicazione del metodo biodinamico prendendo come caso studio Tenuta Mara, un’azienda situata nelle colline riminesi. Dapprima viene analizzato il pensiero di Rudolf Steiner, ideatore della teoria che, attraverso le otto conferenze tenute nel 1924 a Koberwitz, rende noti i risultati delle sue ricerche sperimentali avviate nel 1922, derivate da una visione del mondo dove le forze cosmiche, i pianeti e le costellazioni creano un equilibrio tra loro, dove l’uomo si integra pienamente rispettando i voleri della terra. Viene anche affrontata una parte relativa al quadro normativo, facendo un excursus dal marchio Demeter del 1927, al primo Regolamento CEE 2092/ 91 relativo al biologico, fino alla recente legge n. 23 del 9 Marzo 2022 in Italia. Si passa così da una prima parte teorica alla seconda, dove questa viene messa in pratica. Tenuta Mara ha fatto dell’attenzione verso la sostenibilità, riguardante i materiali ecologici utilizzati nella struttura, del risparmio energetico su tutto il processo produttivo e della gestione delle acque consapevoli i propri punti cardine. Le pratiche della viticoltura biodinamica si fondono con la passione per il vino, per l’arte e la musica, con la decisione di ridurre al minimo l’intervento dell’uomo durante tutto il processo enologico, dando alla natura il potere di sceglierne il percorso. Attraverso il supporto dell’enologo viene compreso appieno lo spirito della Tenuta, ponendo particolare attenzione sul processo di vinificazione in bianco per la produzione del Maramato, un vino color del rame, derivato dalle uve di Sangiovese.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
Le aree poste in prossimità di rilevati arginali si trovano esposte ad un rischio idraulico residuale, associato a possibili eventi di piena eccezionali o al cedimento del sistema arginale. La previsione, mitigazione e prevenzione delle conseguenze connesse a questi possibili fenomeni, nonché la loro gestione in tempo reale, rappresentano sfide complesse per le autorità competenti. In questo contesto, l'obiettivo della presente attività di tesi è stato quello di predisporre una metodologia semplificata che, in caso di eventi di piena, potesse offrire una valutazione speditiva del volume esondabile da una ipotetica rotta arginale, senza ricorrere alla modellistica numerica per la quale sono richiesti dati e tempi non sempre disponibili. La metodologia proposta stima un idrogramma sintetico, associato al volume esondabile da una breccia arginale. Le variabili richieste in input sono: l’ipotetica posizione della rotta ed il carico idraulico su di essa (funzione dell’approfondimento della rotta stessa). Lo sviluppo si è basato su dati di scenari di allagamento (con tempo di ritorno 100 anni) associati a brecce analizzate sul fiume Reno mediante modellazione mono- e bi-dimensionale. Gli scenari di allagamento derivanti dagli idrogrammi sintetici sono stati quindi confrontati con le aree di allagamento conseguenti alle rotte precedentemente simulate, in modo da valutarne la corretta riproduzione. I risultati evidenziano una buona riproduzione delle dinamiche e dell’estensione massima degli allagamenti nel caso della stima dell’idrogramma di esondazione semplificato, facendo pertanto apparire la procedura proposta come un valido strumento a sostegno della gestione emergenziale.
Resumo:
Una importante problematica di risonanza mondiale è lo sviluppo di fenomeni sempre più frequenti di siccità e di scarsità idrica. Il presente elaborato intende illustrare come tale difficoltà stia colpendo il pianeta, con un focus sull’Italia e poi sull’Emilia-Romagna. Le cause scatenanti sono riconducibili all’aumento della popolazione, al depauperamento dei corpi idrici, ma soprattutto agli impatti del cambiamento climatico: incremento delle temperature, calo delle precipitazioni e quindi riduzione della ricarica delle fonti di approvvigionamento. Queste devono soddisfare un’intensa domanda da parte delle attività antropiche nonostante il loro stato sia sempre più preoccupante. In questo scenario è indispensabile adottare nuovi metodi per la gestione sostenibile delle riserve idriche, e il monitoraggio si rivela uno strumento utile in quanto fornisce informazioni dettagliate e aggiornate sullo stato quantitativo delle fonti. In particolare, il presente elaborato si focalizza sul progetto Resilient Dashboard, ideato in ambito regionale dalla collaborazione di più strutture operative di Hera S.p.A. Si tratta di uno strumento per l’analisi e il preannuncio di crisi idriche, basato sul monitoraggio di indicatori idrologici e meteorologici. Questo può essere di supporto per i gestori delle risorse, i quali possono individuare e poi intervenire sulle zone in cui si verifica maggiore criticità. Vengono dunque esaminati i processi che sono risultati necessari alla definizione del progetto, a partire dalla selezione degli elementi di interesse e dalla predisposizione delle elaborazioni da compiere su ciascuna tipologia di dato, fino allo sviluppo del criterio di assegnazione dei colori alle fonti e alle aree, per la segnalazione degli allarmi. Il progetto è ancora in corso di realizzazione, ma il suo obiettivo finale consiste nel produrre una piattaforma digitale di facile utilizzo che fornisca informazioni sullo stato delle fonti, in relazione alla domanda di risorsa.
Resumo:
L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.
Resumo:
L’elaborato di tesi presentato è stato svolto con l’obiettivo di identificare una metodologia chiara ed efficacie per consentire alle aziende di classificare correttamente i codici presenti a magazzino e assegnarvi la politica di approvvigionamento più idonea. Il focus del lavoro si è incentrato sulla realizzazione di un trade off tra l’obiettivo delle aziende di evitare lo stock out di merce, e quello di riuscire a contenere le giacenze medie dei codici a magazzino e delle corrispettive scorte di sicurezza, che rappresentano sempre un insieme di costi ingenti. Partendo quindi da una analisi dettagliata delle politiche di approvvigionamento dettate dalla letteratura, ci si sofferma sul metodo a punto di riordino, individuato come il più idoneo a perseguire questa mission. Segue quindi una descrizione dei passi da seguire per riuscire a determinare il perimetro di azione più compatibile con le caratteristiche del modello, fino a giungere alla reale simulazione di calcolo e successiva implementazione dei nuovi dati a sistema. Il tutto viene svolto facendo riferimento ai dati appartenenti all’azienda Ravaglioli S.p.A. di Sasso Marconi (BO), che ha permesso di svolgere ed implementare tutti gli steps e le analisi elencate nell’elaborato di tesi e sta attualmente lavorando utilizzando gli output del lavoro presentato. La tesi si conclude con la valutazione degli effettivi benefici derivanti dal progetto e una proposta di possibile sviluppo futuro dell’elaborato.
Resumo:
Al giorno d'oggi le aziende multiservizi non sono aggiornate per quanto riguarda la transizione digitale. Questo determina un aumento dei costi per l'azienda e un peggioramento del servizio offerto al cliente. Tale situazione, però, è destinata a cambiare. Infatti, sono state introdotte diverse forme di finanziamento per aiutare le aziende a compiere la transizione necessaria con specifici interventi finanziari che hanno lo scopo di sostenere gli innumerevoli progetti di digitalizzazione lanciati dalle aziende stesse. In futuro anche le aziende multiservizi saranno ottimamente digitalizzate, competitive ed efficienti.