983 resultados para Android, Applicazione, Eventi, SMS Backup
Resumo:
Lelaborato riguarda la progettazione di un modulo di rinnovo dellaria ambiente con recupero termico, che integri anche la funzione di climatizzazione invernale ed estiva. Lapplicazione partita dallanalisi di un caso reale, ossia la palazzina uffici dellazienda Galletti S.p.A. Per tutti gli uffici interessati si proceduto alla verifica del carico termico invernale, nonch dei fabbisogni di aria di rinnovo sulla base dei tassi di occupazione previsti dalle norme e parallelamente dei tassi di occupazione reali. In tale elaborato vengono illustrate le due normative relative alla ventilazione applicabili in Italia, quella italiana (UNI 10339) e quella europea (UNI EN 16798-1), le quali permetteranno di ottenere i valori di ricambi daria necessari per i singoli ambienti. Per effettuare i ricambi di aria si scelto di dimensionare un sistema di VMC puntuale. Successivamente si sono analizzati i principali inquinanti indoor e tra questi stata scelta come indice di qualit dellaria interna la concentrazione di CO2, in quanto il controllo della sua concentrazione permette di avere un indice di un corretto ricambio dellaria ambiente. Per effettuare il dimensionamento della macchina si sono presi come locali tipo undici uffici dello stabilimento Galletti. Nel lavoro di selezione sono stati individuati i recuperatori a piastre in alluminio e i ventilatori necessari. Si poi applicato un modello dinamico di accumulo di CO2 in ambienti chiusi creato in Galletti per monitorare landamento della concentrazione di CO2 nel tempo con diversi valori di portata di rinnovo, considerando tre livelli di isolamento dellinvolucro. Il modello fornisce indicazioni sul tipo di regolazione che si prevede per la macchina. Per ciascun ambiente stata formulata una proposta di sostituzione dellunit di climatizzazione presente (fan coil) con una nuova unit in grado di fare fronte al tasso di rinnovo richiesto ed alla climatizzazione invernale in condizioni di progetto.
Resumo:
Nel panorama aziendale odierno, risulta essere di fondamentale importanza la capacit, da parte di unazienda o di una societ di servizi, di orientare in modo programmatico la propria innovazione in modo tale da poter essere competitivi sul mercato. In molti casi, questo e significa investire una cospicua somma di denaro in progetti che andranno a migliorare aspetti essenziali del prodotto o del servizio e che avranno un importante impatto sulla trasformazione digitale dellazienda. Lo studio che viene proposto riguarda in particolar modo due approcci che sono tipicamente in antitesi tra loro proprio per il fatto che si basano su due tipologie di dati differenti, i Big Data e i Thick Data. I due approcci sono rispettivamente il Data Science e il Design Thinking. Nel corso dei seguenti capitoli, dopo aver definito gli approcci di Design Thinking e Data Science, verr definito il concetto di blending e la problematica che ruota attorno allintersezione dei due metodi di innovazione. Per mettere in evidenza i diversi aspetti che riguardano la tematica, verranno riportati anche casi di aziende che hanno integrato i due approcci nei loro processi di innovazione, ottenendo importanti risultati. In particolar modo verr riportato il lavoro di ricerca svolto dallautore riguardo l'esame, la classificazione e l'analisi della letteratura esistente all'intersezione dell'innovazione guidata dai dati e dal pensiero progettuale. Infine viene riportato un caso aziendale che stato condotto presso la realt ospedaliero-sanitaria di Parma in cui, a fronte di una problematica relativa al rapporto tra clinici dellospedale e clinici del territorio, si progettato un sistema innovativo attraverso lutilizzo del Design Thinking. Inoltre, si cercher di sviluppare unanalisi critica di tipo what-if al fine di elaborare un possibile scenario di integrazione di metodi o tecniche provenienti anche dal mondo del Data Science e applicarlo al caso studio in oggetto.
Resumo:
Si presenta lo sviluppo di una nuova applicazione web, chiamata tonicarD, che fornisce gli strumenti per fare annotazione dei documenti che costituiscono il catalogo storico della Biblioteca Universitaria di Bologna. Si tratta di schede scritte a mano dal dott. Andrea Caronti nella seconda met dell'Ottocento, che si ha interesse a digitalizzare. A questo scopo, si progettato il sistema tonicarD, che permette di eseguire la segmentazione e la trascrizione delle scansioni di tali documenti e genera le immagini che verrano usate per popolare un dataset su cui allenare un modello di riconoscimento automatico del testo. L'applicazione implementa anche lo sviluppo di un algoritmo di segmentazione automatica, oltre che un'approssimativa trascrizione della scheda, con l'obiettivo di agevolare l'utente nell'esecuzione dell'annotazione. Il lavoro include anche test per misurare la qualit della segmentazione automatica e test di usabilit dell'interfaccia, in cui si mettono a confronto l'esperienza degli utenti su tonicarD e Transkribus.
Resumo:
Negli ultimi anni il mercato degli NFT cresciuto in modo sbalorditivo. Questo nuovo token deriva dallidea di un nuovo standard Ethereum che riesca a distinguere univocamente ogni token. Infatti, pu essere associato a propriet virtuali e digitali ed in grado di identificare in modo univoco le propriet a cui si riferisce. Questa nuova tecnologia in continua evoluzione in molti ambiti, dallambito sportivo, a quello dellarte, alla musica, alla moda cos via. Man mano che si sviluppa notiamo che vengono mutati campi, prodotti e servizi gi esistenti, ma anche sviluppati dei nuovi. Le persone sono affascinate dagli NFT per il fatto che rappresentano oggetti piacevoli, creativi ed interessanti e poich ci associano il concetto di investimento, trading, guadagno e necessariamente pensano alle criptovalute quali Bitcoin o Ethereum. Infatti, in molti hanno sentito parlare di almeno una delle opere diventate pi famose grazie agli NFT. Ad esempio, lopera darte Everydays: the First 5000 Days dellartista Beeple Mike Winkelmann fu venduta dalla casa daste Christies ad un prezzo che fece il record di vendita per un unico NFT (pi di 69 milioni di dollari). Uno dei settori in cui gli NFT sono entrati riguarda quello dell'arte, dando vita a un vero e proprio fenomeno definito come "Crypto-Art". La preziosit e il valore delle opere digitali si crea sullunicit dellopera. Il pregio dellarte non per tutti, ma su una nicchia di persone che sono appassionati e collezionisti del mondo dellarte. L'obiettivo di questa tesi appunto analizzare le potenzialit e i limiti di NFT in questo contesto.
Resumo:
I principi Agile, pubblicati nellomonimo Manifesto pi di 20 anni fa, al giorno doggi sono declinati in una moltitudine di framework: Scrum, XP, Kanban, Lean, Adaptive, Crystal, etc. Nella prima parte della tesi (Capitoli 1 e 2) sono stati descritti alcuni di questi framework e si analizzato come un approccio Agile utilizzato nella pratica in uno specifico caso duso: lo sviluppo di una piattaforma software a supporto di un sistema di e-grocery da parte di un team di lab51. Si sono verificate le differenze e le similitudini rispetto alcuni metodi Agile formalizzati in letteratura spiegando le motivazioni che hanno portato a differenziarsi da questi framework illustrando i vantaggi per il team. Nella seconda parte della tesi (Capitoli 3 e 4) stata effettuata unanalisi dei dati raccolti dal supermercato online negli ultimi anni con lobiettivo di migliorare lalgoritmo di riordino. In particolare, per prevedere le vendite dei singoli prodotti al fine di avere degli ordini pi adeguati in quantit e frequenza, sono stati studiati vari approcci: dai modelli statistici di time series forecasting, alle reti neurali, fino ad una metodologia sviluppata ad hoc.
Resumo:
Lo sviluppo dei dispositivi mobili negli ultimi anni ha permesso la creazione di pedometri efficienti. Uno dei problemi principali nella realizzazione dei contapassi `e laccuratezza e la precisione nei risultati. Il seguente elaborato fornisce unanalisi dettagliata dei vari studi presenti in rete a riguardo. La ricerca ha avuto scopo di riassumere le diverse scelte implementative, confrontandole tra di loro e di risaltare i punti in comune fornendo unanalisi sulleffettiva efficacia di ognuna di esse. Il focus di questo studio si concentrer`a sullanalisi di algoritmi per la rilevazione di passi calcolati non in tempo reale. Lelaborato `e stato diviso in quattro differenti fasi. Durante la prima fase vengono esposti i principali studi e le principali metodologie relative allargomento appena descritto. Nella seconda fase viene presentata la Tassonomia, cio`e una classificazione ordinata di concetti secondo determinati criteri. Nella terza fase `e stata quindi sviluppata una applicazione Android in cui vengono implementanti gli algoritmi descritti nelle fasi precedenti. Nellultima fase viene testata lapplicazione attraverso luso di specifici test confrontando tra loro i diversi algoritmi proposti.
Resumo:
Lattivit di Tesi svolta presso lazienda Magni Telescopic Handlers stata finalizzata allimplementazione e lottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dellazienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attivit di montaggio lungo la linea e uno standard di efficienza produttiva pi elevato.
Resumo:
Nellattuale contesto competitivo, sempre pi alla ricerca di un incontro tra esigenze di natura economica e logiche di Sostenibilit Ambientale e di Economia Circolare (E.C.), questo elaborato si pone lobiettivo di presentare un modello matematico, formulato per la simulazione e la conseguente ottimizzazione di una rete logistica gestita con logiche di Simbiosi Industriale (S.I.). Lo scopo di tale modello fungere da supporto alladozione di pratiche di S.I. in un determinato contesto territoriale, attraverso lindividuazione delle sinergie ottime, tra quelle considerate possibili, in grado di ridurre la produzione di rifiuti, a favore del riutilizzo di sottoprodotti e materie prime seconde, minimizzando il costo totale del sistema. Preliminarmente alla presentazione del modello, sar descritto il contesto in cui la S.I. si colloca e i suoi collegamenti con i concetti di Ecologia Industriale (E.I.) ed E.C., verranno distinti i vari modelli esistenti di S.I. ed i casi di successo presenti nel contesto italiano ed europeo, e sar illustrato lattuale inquadramento normativo. In seguito, verranno descritti nel dettaglio il modello matematico e un caso studio, dimensionato allo scopo di validare il modello stesso. Fase particolarmente critica del lavoro risultata essere quella relativa alla raccolta dati da inserire nel caso studio, in quanto informazioni sensibili e di conseguenza non facilmente reperibili. I risultati ottenuti dimostrano come possa risultare conveniente, dal punto di vista economico, ladozione di pratiche di S.I. negli scambi tra realt industriali, e in che modo tale convenienza muti al variare delle condizioni economiche al contorno.
Resumo:
La maggioranza degli applicativi che utilizziamo quotidianamente come siti di e-commerce e portali di home banking basano il proprio funzionamento su uninfrastruttura a microservizi, cio un modello architetturale in cui un insieme di pi sottocomponenti collabora scambiandosi dati per permettere agli utenti finali di fruire di un servizio. Questo pattern rappresenta lo standard adottato dagli applicativi moderni che ha ormai soppiantato il pi datato modello monolitico in cui lintero funzionamento veniva gestito in ununica unit implementativa di grandi dimensioni, difficile da sviluppare e mantenere allaumentare delle funzionalit richieste. Decomporre un unico software in pi sottocomponenti permette di ridistribuirne la complessit totale richiedendo per un insieme di accortezze e di strumenti consoni per gestire tutte le entit da sviluppare. A tale scopo al giorno doggi molto importante lutilizzo della telemetria, cio la tecnologia che consiste nella raccolta a distanza dei dati generati dai componenti a scopo di analisi di funzionamento e performance dellintera piattaforma. Ladozione di questa tecnologia comporta numerosi benefici, sia a livello implementativo che dal punto di vista del mantenimento della piattaforma, che potr essere monitorata anche dopo il rilascio. In questo elaborato di tesi sono stati implementati due use case realistici di piattaforme a microservizi che ricevono ed elaborano dati, alle quali sono state aggiunte nella fase di sviluppo software le funzionalit di due diversi strumenti di telemetria. Lobiettivo permettere lanalisi dello storico delle elaborazioni eseguite per poter ricostruire il funzionamento dellintero applicativo a scatola chiusa, analizzando le metriche generate nei log dei microservizi o in uninterfaccia grafica raggiungibile tramite browser. Allinterno dellelaborato verranno descritti tutti i dettagli implementativi, analizzando poi i benefici ottenuti dalladozione di questi strumenti.
Resumo:
Il dibattito sulla questione ambientale, ormai in continua crescita da decenni, sta conducendo ad un incremento di interesse da parte della societ in merito allo sviluppo sostenibile, il quale riguarda, in modo interconnesso, lambito ambientale, economico e sociale. Nascono in questa ottica le certificazioni ambientali, attestati nei quali viene certificato limpegno di unorganizzazione per la tutela dellambiente. Lazienda, che su base volontaria decide di ottenere la certificazione, obbligata a dotarsi di un Sistema di Gestione Ambientale, il quale deve essere verificato da parte di un ente accreditato. La norma ISO14001 in particolare stabilisce i criteri da rispettare per l'attuazione di un efficace Sistema di Gestione Ambientale. Il presente lavoro di tesi stato sviluppato durante un tirocinio svolto presso unazienda operante nel settore delle bonifiche del suolo, sottosuolo ed acque sotterranee, con sede a Bologna. Lo scopo di questo elaborato quello di applicare i requisiti della norma UNI EN ISO14001 nellambito di tale attivit di bonifica per il controllo degli impatti ambientali. In particolare, la prima parte del tirocinio stata dedicata allaggiornamento ed allottimizzazione del Sistema di Gestione Ambientale implementato dalla societ per il calcolo degli impatti ambientali delle attivit aziendali, in particolare di caratterizzazione e bonifica ambientale. Successivamente lattenzione stata posta ad un caso di studio attualmente gestito dalla societ per valutare possibili miglioramenti, dal punto di vista ambientale, degli impatti generati dalle attivit di bonifica applicate al sito. Lo strumento utilizzato per questa analisi lapplicativo Spreadsheets for Environmental Footprint Analysis (SEFA), sviluppato da US EPA nel 2012.
Resumo:
Lelaborato di tesi discute del progetto di integrazione tra ROS 2, framework open-source per lo sviluppo di applicazioni robotiche, e VxWorks, sistema operativo in tempo reale (RTOS), attraverso lutilizzo di container OCI compliant su VxWorks. Lintegrazione stata svolta allinterno dello stack software di IMA (Industria Macchine Automatiche). Il progetto ha dunque integrato ROS 2 Humble e VxWorks 7 permettendo lutilizzo di costrutti software di ROS 2 su dei container in esecuzione a livello User su VxWorks. Successivamente stata creata una applicazione di pick and place con un robot antropomorfo (Universal Robots Ur5e) avvalendosi di ROS 2 Control, framework per lintroduzione e gestione di hardware e controllori, e MoveIt 2, framework per incorporare algoritmi di motion-planning, cinematica, controllo e navigazione. Una volta progettata lapplicazione, il sistema stato integrato allinterno dellarchitettura di controllo di IMA. Larchitettura a container VxWorks di IMA stata estesa per il caso ROS 2, la comunicazione tra campo e applicazione ROS 2 passata tramite il master EtherCAT e il modulo WebServer presenti nellarchitettura IMA. Una volta eseguito il container ROS 2 posizione e velocit dei servo motori sono stati inviati tramite al WebServer di IMA sfruttando la comunicazione VLAN interna. Una volta ricevuto il messaggio, il WebServer si occupato di trasferirlo al master EtherCAT che in aggiunta si occupato anche di ottenere le informazioni sullo stato attuale del robot. Lintero progetto stato sviluppato in prima battuta in ambiente di simulazione per validarne larchitettura. Successivamente si passati allinstallazione in ambiente embedded grazie allausilio di IPC sui quali stato testato leffettivo funzionamento dellintegrazione allinterno dellarchitettura IMA.
Resumo:
Lelaborato di tesi frutto di un percorso di tirocinio svolto in Gruppo Montenegro S.r.l., il cui obiettivo risiede nello sviluppo di un algoritmo per la pallettizzazione e la saturazione del mezzo di trasporto per la Divisione Food. Nello specifico viene proposto un algoritmo euristico elaborato nel linguaggio di programmazione Python. La divisione Food costituita da tre categorie: Cannamela, Cuore e Vitalia.Queste comprendono prodotti molto eterogenei. Attraverso il coinvolgimento delle funzioni aziendali di Packaging e Qualit, sono stati stabiliti i vincoli da rispettare per la pallettizzazione dei prodotti. Lalgoritmo proposto viene descritto suddividendo il processo in tre macro-step. La prima parte affronta il problema del 3D Bin Packing Problem, utilizzando e modificando un programma gi presente in letteratura per soddisfare le esigenze della categoria Cannamela. Questultima a differenza delle altre categorie, viene allestita in groupage preallestito poich gli ordini Cannamela possono contenere quantit non-multiple rispetto alle quantit contenute nellimballo secondario. La seconda parte dellalgoritmo si occupa della creazione dei pallet per le categorie Cuore e Vitalia. Attraverso lutilizzo dellalgoritmo di clustering K-means sono state create famiglie di codici che permettessero lallestimento di pallet con prodotti considerati simili. Di conseguenza, lalgoritmo per la pallettizzazione delle due categorie viene sviluppato ex-novo basandosi sulla percentuale di occupazione del prodotto nel pallet. Lultima parte dellalgoritmo studia la possibilit di sovrapporre i pallet precedentemente creati. Infine, viene effettuata unanalisi di un periodo strategico confrontando i risultatidellalgoritmo Python con quelli dellalgoritmo presente nel gestionale aziendale. I risultati vengono poi analizzati in relazione a due impatti importanti per lazienda:economici e ambientali.
Resumo:
Nellattuale contesto energetico di forte instabilit, prezzi e produttivit subiscono continue variazioni a causa di fattori politici ed economici. Il sistema elettrico chiamato a rispondere velocemente ai cambiamenti garantendo continuamente il soddisfacimento del fabbisogno di energia elettrica. Nel presente elaborato viene utilizzato un modello di costo dinamico, estratto dalla letteratura scientifica, con lo scopo di gestire efficientemente i flussi energetici e garantire una programmazione ottimale del mix produttivo. Viene analizzato lo scenario italiano mettendo in relazione produzione, trasmissione e domanda energetica. I dati utilizzati fanno riferimento, quanto pi possibile, al contesto attuale. Coerentemente con la situazione reale i risultati ottenuti mettono in risalto le criticit e i punti di forza principali del sistema elettrico italiano delineando i possibili cambiamenti attuabili a medio termine.
Resumo:
A causa dei cambiamenti climatici sempre pi frequentemente si verificano disastri ambientali come frane, alluvioni e incendi. Il suolo italiano risente particolarmente di questi eventi, considerati molto gravosi, sia in termini di vite umane che in senso economico. Una soluzione affidabile e con tempi di risposta veloci per il rilevamento delle frane potrebbe migliorare la prevenzione di questi fenomeni. I tradizionali metodi di rilevamento aereo possono richiedere ingenti risorse finanziarie e necessitano di una fase di pianificazione dei voli che rischia di essere incompatibile con i tempi di risposta richiesti. Una possibile alternativa per risolvere i problemi della raccolta di immagini tramite aerei ed elicotteri potrebbe essere basata sulluso di droni con a bordo videocamere e l'applicazione di algoritmi in grado di elaborare immagini in tempi veloci per individuare le aree soggette a dissesto idrogeologico. Riguardo all'elaborazione delle immagini, sono stati recentemente introdotti degli algoritmi che sembrano promettenti per identificare in maniera quasi immediata le frane grazie a piattaforme aeree sia piloate che autonome. In questo elaborato di tesi si propongono i risultati ottenuti da prove svolte su un modello di reti convoluzionali denominato U-Net e si fa una valutazione della sua efficacia nel riconoscimento automatico delle frane. I risultati ottenuti suggeriscono che la presente implementazione della rete potrebbe, per, presentare criticit nell'individuazione di frane in un'immagine. Per gli sviluppi futuri, si suggerisce di modificare la rete convoluzionale, oppure di utilizzare banche dati differenti per l'allenamento dell'algoritmo.
Resumo:
Gli aspetti descrittivi e tecnologici relativi alle fasi produttive e le operazioni unitarie della produzione di conserve alimentari sono trattati in questo elaborato di tesi, nel quale viene anche illustrata lopportunit di valorizzazione dei sottoprodotti della suddetta filiera. Viene posta particolare attenzione verso le principali tecnologie innovative applicabili ai processi di stabilizzazione delle conserve alimentari, analizzando il caso studio dellapplicazione delle microonde in combinazione con il trattamento termico convenzionale per la produzione di composta di mele cotogne.