630 resultados para interfaccia,rover,monitoraggio,connettività,programmazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

I vantaggi dell’Industria 4.0 hanno stravolto il manufacturing. Ma cosa vuol dire "Industria 4.0"? Essa è la nuova frontiera del manufacturing, basata su princìpi che seguono i passi avanti dei sistemi IT e della tecnologia. Dunque, i suoi pilastri sono: integrazione, verticale e orizzontale, digitalizzazione e automazione. L’Industria 4.0 coinvolge molte aree della supply chain, dai flussi informativi alla logistica. In essa e nell’intralogistica, la priorità è sviluppare dei sistemi di material handling flessibili, automatizzati e con alta prontezza di risposta. Il modello ideale è autonomo, in cui i veicoli fanno parte di una flotta le cui decisioni sono rese decentralizzate grazie all'alta connettività e alla loro abilità di collezionare dati e scambiarli rapidamente nel cloud aziendale.Tutto ciò non sarebbe raggiungibile se ci si affidasse a un comune sistema di trasporto AGV, troppo rigido e centralizzato. La tesi si focalizza su un tipo di material handlers più flessibile e intelligente: gli Autonomous Mobile Robots. Grazie alla loro intelligenza artificiale e alla digitalizzazione degli scambi di informazioni, interagiscono con l’ambiente per evitare ostacoli e calcolare il percorso ottimale. Gli scenari dell’ambiente lavorativo determinano perdite di tempo nel tragitto dei robot e sono queste che dovremo studiare. Nella tesi, i vantaggi apportati dagli AMR, come la loro decentralizzazione delle decisioni, saranno introdotti mediante una literature review e poi l’attenzione verterà sull’analisi di ogni scenario di lavoro. Fondamentali sono state le esperienze nel Logistics 4.0 Lab di NTNU, per ricreare fisicamente alcuni scenari. Inoltre, il software AnyLogic sarà usato per riprodurre e simulare tutti gli scenari rilevanti. I risultati delle simulazioni verranno infine usati per creare un modello che associ ad ogni scenario rilevante una perdita di tempo, attraverso una funzione. Per questo saranno usati software di data analysis come Minitab e MatLab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rapido sviluppo dell'economia e della tecnologia ha portato rapidi cambiamenti nella vita delle persone. Solo avendo un sonno di alta qualità possiamo dare il meglio ed essere veramente produttivi e produttivi.Invertire giorno e notte, procrastinare il sonno e stare alzati fino a tardi sono diventate abitudini comuni delle persone moderne. Queste cattive abitudini del sonno hanno un impatto sulla salute fisica, sull'efficienza del lavoro e dello studio e sulla vita delle persone. Miatal Tracker è un software di monitoraggio del sonno per i mercati europeo e americano e fornisce anche molti audio per dormire, corsi di meditazione e conoscenze relative al sonno. Durante il mio tirocinio, il team ha scoperto che i nostri prodotti sono meno differenziati da prodotti simili sul mercato. Per aiutare meglio gli utenti a risolvere i problemi di insonnia e migliorare la qualità del sonno, estraiamo metodi di terapia comportamentale dalla CBT-I migliorando così l'insonnia. Basato sulla progettazione della persuasione e della guida, migliora l'esecuzione dei comportamenti target e aiuta gli utenti a formare buone abitudini di sonno. Dal punto di vista del design, vengono studiate le ragioni di questi fenomeni e, combinate con le pertinenti conoscenze di psicologia e scienze comportamentali, viene esplorato come aiutare le abitudini di lavoro e di riposo delle persone. Prendendo questo come un'idea di design, la progettazione di prodotti e software applicativo si basa sulla progettazione del prodotto, integrata da applicazioni software, che combinano abitudini del sonno, prodotti e monitoraggio del sonno per formare un sistema di prodotti di promemoria, simboli e feedback, aiutando gli utenti a formare un buon sistema di prodotti Le abitudini del sonno, attraverso una guida non coercitiva, cambiano gli atteggiamenti e i comportamenti degli utenti verso l'obiettivo di ottenere un sonno di qualità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La richiesta dei consumatori di prodotti sostenibili, le lotte per il cambiamento climatico e l'importanza che viene data alla sostenibilità dal mondo finanziario hanno fatto sì che la politica intraprendesse iniziative sulle tematiche sostenibili e di conseguenza le imprese hanno adottato azioni in linea con i criteri ESG. Anche se per le aziende intraprendere un percorso sostenibile non sia economicamente conveniente e per raggiungere determinati obiettivi servono sforzi e tempi lunghi, sono consapevoli dei benefici nel medio-lungo termine a livello economico, di reputazione e vantaggio competitivo. Queste iniziative però si concentrano prevalentemente sul primo anello della supply chain e le società che operano in un mercato globale fanno difficoltà a rispettare le differenti norme giuridiche non compatibili negli Stati in cui è presente la propria value chain. Per risolvere questi problemi la della Commissione Europea il 23/02/2022 ha proposto la direttiva sulla Corporate Sustainability Due Diligence, che impone l’obbligo per le imprese di implementare un processo di due diligence in tutta la value chain per prevenire effetti negativi e potenziali sui diritti umani e sull’ambiente. L’obiettivo dell'elaborato è di analizzare la direttiva di due diligence per comprendere quanto le aziende di oggi siano pronte al monitoraggio di un’intera catena del valore. Il caso studio scelto per lo scopo è quello dell’azienda Fincantieri S.p.A. la quale ha intrapreso da qualche anno un percorso di sostenibilità. Attraverso il confronto fra le azioni in atto dell'azienda e la direttiva, dalla trattazione emerge che la sfida più grande che Fincantieri dovrà affrontare sarà la condivisione delle pratiche già in atto nei livelli più profondi della supply chain. L’approvazione della direttiva, incentivando anche indirettamente le aziende ad operare in ottica di sostenibilità, aiuterà a perseguire l'obiettivo di due diligence in un percorso di crescita e miglioramento con i fornitori

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La giunzione miotendinea (MTJ) è una struttura anatomica specializzata che collega il muscolo al tendine. La sua funzione è quella di permettere la trasmissione della forza generata dal muscolo al tendine, permettendo il movimento. Essendo una struttura di interfaccia che funge da raccordo tra due tipi di tessuti molto differenti, tende a risentire di una forte concentrazione di tensione, questo la rende fortemente suscettibile a rottura. Le tecniche ad oggi utilizzare per riparare lesioni alla MTJ risultano inadatte ad una completa ed ottimale ripresa meccanica. Al fine di trovare una soluzione a questo problema, l’ingegneria tissutale sta lavorando alla fabbricazione di strutture tridimensionali che siano in grado di imitare al meglio la struttura nativa della MTJ. Le tecniche utilizzate per la produzione di tali strutture sono, principalmente, stampa 3D ed elettrofilatura. Il vantaggio di queste tecniche è la loro elevata risoluzione, che permette di controllare finemente l’architettura di tali strutture artificiali. Nella seguente tesi verrà presentato lo stato dell’arte sulle tecniche utilizzate per la fabbricazione di scaffolds per la rigenerazione della MTJ, soffermandosi in particolare sui metodi di fabbricazione e sulle prestazioni morfologiche, meccaniche e cellulari effettuando un confronto tra i diversi studi che se ne sono occupati, individuandone punti di forza, debolezze e possibili studi futuri che potranno essere effettuati su tali scaffolds. In questo modo, sarà possibile rendersi conto di quale di queste tecniche risulti essere più promettente per il futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato mostra lo sviluppo di un plugin per la visualizzazione in Grafana di eventi provenienti dalla piattaforma semantica SEPA (SPARQL Event Processing Architecture). La principale funzione svolta dal SEPA è quella di notificare in modo asincrono i propri client rispetto al cambiamento dei risultati di una query che interroga il sottostante grafo RDF. La piattaforma trova il suo utilizzo in quei contesti caratterizzati da dati dinamici, eterogenei e non strutturati e viene impiegata principalmente come strumento per abilitare l’interoperabilità in domini come per esempio l’Internet of Things. Nasce quindi l’esigenza di disporre di strumenti per il monitoraggio e la visualizzazione di dati real-time. Grafana risulta in questo caso lo strumento ideale data la sua flessibilità, che affiancata alla sua natura open source, lo rende particolarmente interessante per lo sviluppo della soluzione proposta da VAIMEE, spinoff dell’Università di Bologna, ospitato presso il CesenaLab, luogo dove è stato svolto questo lavoro di tesi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I contenuti e i servizi offerti dal Web hanno subito negli anni una costante e continua evoluzione, dovuti alla maggiore disponibilità di dispositivi in grado di navigarlo. Oggi i requisiti e le aspettative che gli utenti hanno nei confronti delle applicazioni Web sono sempre maggiori, desiderano un accesso ai contenuti sempre più rapido, interfacce semplici e facili da usare, oltre che reattive, e che tali contenuti siano accessibili da una vasta gamma di dispositivi che presentino sempre più funzionalità. Le aziende devono essere pronte a rispondere a queste esigenze e a fornire agli utenti finali la miglior esperienza possibile, rimanendo aggiornati sulle tecnologie per la creazione di applicazioni Web. Questo è ancora più importante per un'azienda possiede più prodotti, sviluppati da team diversi che usano tecnologie diverse. Per alcune aziende è importante che i propri prodotti, sebbene trattino tematiche differenti, si presentino con interfacce che rimandino al proprio marchio, non solo grazie al nome o al logo, quanto più nei componenti utilizzati per creare le interfacce. Succede così che i vari team devono progettare e sviluppare i componenti nella propria tecnologia, in modo che abbiano le stesse funzionalità, stesso stile e stesso comportamento in ogni situazione. Il più delle volte questo è difficile da realizzare e anche costoso da mantenere. Riuscire a centralizzare lo sviluppo di questi elementi in un unico punto aiuta l'azienda a mantenere bassi i costi di manutenzione e a rendere omogenea l'esperienza degli utenti tra i vari prodotti. Obiettivo del lavoro svolto è illustrare le potenzialità e l'utilità fornite dall'introduzione di una suite di componenti personalizzati, seguendo lo standard dei Web Component, all'interno dei prodotti forniti da una grande impresa. L'analisi si concentra sulll'esperienza di chi utilizza tali componenti all'interno dei propri progetti per creare l'interfaccia utente da presentare poi agli utenti finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilizzo di informazioni di profondità è oggi di fondamentale utilità per molteplici settori applicativi come la robotica, la guida autonoma o assistita, la realtà aumentata e il monitoraggio ambientale. I sensori di profondità disponibili possono essere divisi in attivi e passivi, dove i sensori passivi ricavano le informazioni di profondità dall'ambiente senza emettere segnali, bensì utilizzando i segnali provenienti dall'ambiente (e.g., luce solare). Nei sensori depth passivi stereo è richiesto un algoritmo per elaborare le immagini delle due camere: la tecnica di stereo matching viene utilizzata appunto per stimare la profondità di una scena. Di recente la ricerca si è occupata anche della sinergia con sensori attivi al fine di migliorare la stima della depth ottenuta da un sensore stereo: si utilizzano i punti affidabili generati dal sensore attivo per guidare l'algoritmo di stereo matching verso la soluzione corretta. In questa tesi si è deciso di affrontare questa tematica da un punto di vista nuovo, utilizzando un sistema di proiezione virtuale di punti corrispondenti in immagini stereo: i pixel delle immagini vengono alterati per guidare l'algoritmo ottimizzando i costi. Un altro vantaggio della strategia proposta è la possibilità di iterare il processo, andando a cambiare il pattern in ogni passo: aggregando i passi in un unico risultato, è possibile migliorare il risultato finale. I punti affidabili sono ottenuti mediante sensori attivi (e.g. LiDAR, ToF), oppure direttamente dalle immagini, stimando la confidenza delle mappe prodotte dal medesimo sistema stereo: la confidenza permette di classificare la bontà di un punto fornito dall'algoritmo di matching. Nel corso della tesi sono stati utilizzati sensori attivi per verificare l'efficacia della proiezione virtuale, ma sono state anche effettuate analisi sulle misure di confidenza: lo scopo è verificare se le misure di confidenza possono rimpiazzare o assistere i sensori attivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obiettivo principale di molti problemi industriali è tipicamente massimizzare i profitti o minimizzare costi o tempi di produzione. Questi problemi sono detti "di ottimizzazione" poiché bisogna ottimizzare determinati processi o attività attraverso decisioni che portino alla soluzione ottima del problema. Il giusto utilizzo di modelli matematici può condurre, tramite l'utilizzo di algoritmi esatti, alla soluzione ottima di un problema di questo tipo. Queste tecniche sono spesso basate su l'enumerazione completa di tutte le possibili soluzioni e ciò potrebbe pertanto richiedere una quantità di calcoli talmente elevata da renderle di fatto inutilizzabili. Per risolvere problemi di grandi dimensioni vengono quindi utilizzati i cosiddetti algoritmi euristici, i quali non assicurano di trovare la soluzione ottima del problema, ma promettono di trovarne una di buona qualità. In questa tesi vengono analizzati, sviluppati e confrontati entrambi gli approcci, attraverso l'analisi di un problema reale che richiede la pianificazione delle attività di un satellite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diversi elementi possono influenzare il comportamento dei conducenti mentre svolgono attività di guida. Dalle distrazioni visive a quelle cognitive, le emozioni (che potrebbero risultare da dati biometrici, come temperatura, battito cardiaco, pressione, ecc.) e le condizioni di altri conducenti, che possono svolgere un ruolo significativo, fungendo da fattore che può aumentare il tempo di risposta dei guidatori. Mantenere sotto controllo questi parametri potrebbe essere fondamentale per evitare situazioni pericolose, per decidere ed eseguire azioni che potrebbero influenzare il verificarsi di incidenti stradali. Questo volume analizza l'indice "Fitness-to-Drive" e mira a valutare come gli effetti dell'eccitazione possono influenzare lo stato dei conducenti. La tesi presenta alcune valutazioni sperimentali condotte su un simulatore di guida, discutendo i risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato descrive le fasi di progettazione, programmazione e validazione di un programma sviluppato in ambiente Java per il Vehicle Routing Problem. L’algoritmo implementato è di tipo euristico costruttivo primal e presenta funzionalità specifiche per la gestione di un elevato numero di vincoli e l’applicazione a casistiche reali. La validazione è stata effettuata su una base dati reale e in confronto a dataset di cui è nota la soluzione ottima. Il programma è stato progettato per risultare flessibile alle richieste dell’utente e utilizzabile per valutazioni economiche in ambito consulenziale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’affidabilità e la diagnostica sono tematiche che hanno sempre ricoperto un ruolo di fondamentale importanza in ambito elettrico. Il frenetico sviluppo che sta vivendo il settore della trazione elettrica dovuto alle restrizioni introdotte dall’UE sulle emissioni di CO2 ha ulteriormente incrementato la necessità di avere componenti sempre più performanti e affidabili. Questa tesi si concentra su una delle problematiche che interessano un motore elettrico: le scariche parziali. L’obiettivo di questo progetto è proporre un metodo innovativo per la rilevazione di scariche parziali che sfrutta le emissioni elettromagnetiche prodotte dalle scariche stesse. La novità rispetto ai tradizionali metodi è la possibilità di eseguire misure anche mentre il motore è in funzione. Il caso di riferimento è quello di un banco motore ma il metodo proposto, se correttamente validato potrà essere impiegato a bordo veicolo in un contesto di normale funzionamento. I principali dispositivi che compongono il sistema di misura presentato sono: un’antenna log-periodica con banda di lavoro 500MHz a 3GHz, un rilevatore di picco LTC5564 adatto per lavorare a radio frequenze ed un oscilloscopio USB. L’antenna rileva le onde elettromagnetiche prodotte dalle scariche parziali. Il rilevatore di picco, dispositivo la cui uscita è proporzionale all’ampiezza del segnale d’ingresso, fornisce un segnale con spettro in frequenza ridotto rispetto all’originale. L’ oscilloscopio digitale (Picoscope), più economico rispetto ai tradizionali oscilloscopi, consente infine l’acquisizione dei segnali. Le principali “tappe” dello sviluppo del nuovo sistema sono state: la caratterizzazione delle onde elettromagnetiche emesse dalle scariche parziali; il miglioramento del rapporto segnale/rumore; la programmazione di un’interfaccia utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato di tesi prende in esame il processo di produzione della linea “Pordenone”, in funzione nello stabilimento forlivese, di Electrolux S.P.A., azienda leader mondiale nella produzione di elettrodomestici e apparecchiature per l'uso domestico. Ragione del presente studio è l’acquisizione dell’opportuna comprensione del funzionamento dell’impianto al fine di individuare le inefficienze, le causali di fermata per la pianificazione della produzione o per gli interventi di manutenzione correttiva dei guasti, in modo da poter suggerire azioni di miglioramento. Per monitorare il processo di produzione è stato applicato all'oggetto di indagine lo studio del diagramma di Pareto, che ha permesso di evidenziare le principali causali all'origine della riduzione di produttività. Oltre a suggerire ipotesi di azioni di miglioramento, si è sottolineata l'importanza del coinvolgimento motivazionale degli operatori nelle procedure di lavoro, e l'opportunità di una maggiore implementazione del sistema informatico. Ragioni di carattere economico o di sicurezza dell'operatore, non hanno permesso di accogliere alcuni suggerimenti proposti, mentre sono state apportate migliorie nella produzione attraverso la riduzione delle fermate di lavoro. Nell'attuale clima di incertezza produttiva e di calo di domanda da parte di alcuni mercati, non è facile elaborare strategie di produzione innovative, tali da garantire la qualità del prodotto offerto e i risultati economici attesi, nel rispetto autentico dell'ambiente della collettività. Tuttavia, si ritiene che le informazioni generate da un adeguato monitoraggio del sistema offrano la possibilità di guardare avanti verso i progressi, piuttosto che concentrare la propria attenzione sulle opportunità mancate, e che le stesse informazioni possano trasformare l'agire dalla reattività (azione dopo il fatto) alla proattività (agire in anticipo) per migliorare efficacemente il processo di produzione.