1000 resultados para SBR, aeratori a membrana, Air Lift, processo di nitrificazione, depurazione piccole comunità


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi nasce dalla necessità di sviluppare uno strumento capace d’individuare potenziali plagi in progetti software. Il plagiarismo nel software è pratica che, nel tempo, ha visto numerosi scontri legali (ad esempio, Oracle contro Google per Android), e per il quale sono pochi i progetti open source di facile utilizzo pratico. L’elaborato, quindi, si addentra nelle tecniche di analisi e d’individuazione di possibili plagi, presentando il processo di progettazione e sviluppo dello strumento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato si è sviluppato all'interno dell’azienda System Logistics S.p.A. di Fiorano Modenese, leader nel settore del material handling e dell’intralogistica. Il focus dell'elaborato è sulla progettazione di un piano di campionamento indicizzato secondo il livello di qualità accettabile. Successivamente ad una presentazione più approfondita dell’azienda e dei prodotti offerti, si passa all’introduzione teorica dei temi dell’intralogistica e della qualità. Questo permette di comprendere il contesto operativo più generale in cui si inserisce il progetto. Infatti, la parte centrale è dedicata alla presentazione delle origini, degli obiettivi e della metodologia del progetto, in particolare, anticipando le procedure che si sono poste come basi strutturali della progettazione. La parte finale descrive il processo statistico che ha portato all’ottenimento del nuovo piano di campionamento e la sua applicazione empirica ai componenti più critici della navetta del LogiMate, il più recente prodotto dell’azienda. In quest’ultima fase si pone il focus sul processo di raccolta e analisi dei dati presentando, in particolare, un’analisi comparativa rispetto alla situazione iniziale dal punto di vista del rischio e un’analisi effettuata con le Carte di Controllo sul processo produttivo di un fornitore. L’esposizione è realizzata anche mediante grafici, ottenuti principalmente attraverso il supporto di Excel e Minitab, al fine illustrare in modo più agevole ed esplicito i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’istruzione superiore in Europa è stata oggetto di un significativo processo di riforma: è aumentato l’interesse per un modello di apprendimento intorno ai progetti, centrato sullo studente, che favorisse lo sviluppo di competenze trasversali – il project-based learning (PBL). Inserire il PBL nelle Università richiede un processo di innovazione didattica: il curriculum di un corso PBL e le competenze richieste all’insegnante si differenziano dall’apprendimento tradizionale. Senza un'adeguata attenzione ai metodi di supporto per insegnanti e studenti, questi approcci innovativi non saranno ampiamente adottati. L’obiettivo di questo studio è determinare in che modo sia possibile implementare un corso PBL non presenziato da figure esperte di PBL. Le domande della ricerca sono: è possibile implementare efficacemente un approccio PBL senza il coinvolgimento di esperti dei metodi di progettazione? come si declinano i ruoli della facilitazione secondo questa configurazione: come si definisce il ruolo di tutor d’aula? come rafforzare il supporto per l’implementazione del corso? Per rispondere alle domande di ricerca è stata utilizzata la metodologia AIM-R. Viene presentata la prima iterazione dell’implementazione di un corso di questo tipo, durante la quale sono state svolte attività di ricerca e raccolta dati. L’attività di facilitazione è affidata a tre figure diverse: docente, tutor d’aula e coach professionisti. Su questa base, sono stati definiti gli elementi costituenti un kit di materiale a supporto per l’implementazione di corsi PBL. Oltre a un set di documenti e strumenti condivisi, sono stati elaborati i vademecum per guidare studenti, tutor e docenti all’implementazione di questo tipo di corsi. Ricerche future dovranno essere volte a identificare fattori aggiuntivi che rendano applicabile il kit di supporto per corsi basati su un modello diverso dal Tech to Market o che utilizzino strumenti di progettazione diversi da quelli proposti durante la prima iterazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato col tempo si è reso sempre più dinamico e ha richiesto alle aziende per sopravvivere una sempre maggiore capacità di innovare e adattarsi. Per rispondere a queste esigenze sono stati ridisegnati nuovi modelli di innovazione, il più famoso tra questi è l’Open Innovation. GELLIFY nasce nel 2016 per favorire l’Open Innovation in Italia, il suo stesso modello è basato sul concetto di Ecosistema e su una strategia win-win tra tutti i soggetti partecipanti: investitori, Start-ups, Corporate. Grazie a questa brillante idea l’azienda ha raggiunto in pochi anni più di 200 dipendenti con tre sedi (Italia, Middle East, Iberia) e un fatturato superiore agli 11 milioni di euro. Per sostenere la crescita e mantenersi agili, GELLIFY, ha dovuto effettuare dei grandi cambiamenti strutturali. Lo scopo di questo elaborato è analizzare GELLIFY combinando insieme la teoria dei microfondamenti con la stella di Galbraith rivisitata da Mckinsey (in cui il sistema premiante è stato incorporato dentro i processi ed è stato dato un ruolo a se stante alla tecnologia). Tutti i diversi elementi sono stati analizzati studiando ciò che l’azienda ha fatto o sta facendo in merito e soprattutto analizzando il percepito dei dipendenti a riguardo, raccolto attraverso l’utilizzo di interviste semistrutturate ai dipendenti e ad alcuni manager. Infine, tutti questi elementi sono stati collegati tra loro studiando come questi incidano sull’espressione delle capacità dinamiche degli individui facendo emergere una carenza nella gestione delle risorse umane dell’azienda. Per risolvere questo problema si è ipotizzato di restringere il campo della soluzione al processo di Onboarding, ritenuto un tassello fondamentale per l’employeer branding e per l’engagement dei dipendenti. La soluzione è stata descritta in maniera dettagliata considerando anche gli elementi presenti in GELLIFY che possono favorirne l’attuazione ma anche evidenziando i fattori critici e come gestirli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’influenza e lo sviluppo delle nuove tecnologie hanno generato svariati cambiamenti in tutti i settori della società e, di conseguenza, anche la traduzione è stata inevitabilmente coinvolta. Internet permette l'interazione quotidiana di lingue e culture distanti centinaia di chilometri, rendendo necessaria la mediazione linguistica e culturale e dando vita a un nuovo ramo della traduzione: la localizzazione. L’elaborato presenta il progetto di localizzazione del sito web Tryber, dell’azienda informatica italiana Unguess. Nell’ottica dell’internazionalizzazione, l’azienda ha richiesto che la propria piattaforma web di crowdtesting venisse sottoposta a un processo di localizzazione dall’italiano verso lo spagnolo. Il progetto di tesi è suddiviso in due sezioni principali, ciascuna composta da due capitoli: la prima parte fornisce un quadro teorico, mentre la seconda presenta il lavoro pratico. Il primo capitolo fornisce una panoramica teorica sulla localizzazione e ne presenta le peculiarità, prestando particolare attenzione alla traduzione per il web. Il secondo capitolo si concentra sulla presentazione dell’azienda Unguess per cui è stato svolto il lavoro e sulla sua comunità di crowdtesting, Tryber. Il terzo capitolo illustra la metodologia di lavoro e gli strumenti di traduzione assistita e automatica utilizzati. Il quarto e ultimo capitolo è dedicato all'analisi testuale e al commento traduttologico delle sezioni localizzate, che mira a illustrare le problematiche riscontrate e a spiegare le ragioni delle principali scelte traduttive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo del presente elaborato, che si concentra sul tema della localizzazione dei videogiochi, è quello di esaminare ed evidenziare le caratteristiche chiave, le peculiarità e le principali sfide di questa pratica. L'industria dei videogiochi è estremamente vasta e in continua crescita. La localizzazione in questo campo assume una grande importanza, in quanto ha il ruolo di preservare al meglio l'esperienza di gioco e di permettere alle aziende di posizionare un videogioco in nuovi mercati. È quindi facile intuire quanto il processo di localizzazione di un prodotto possa essere un fattore determinante per il suo successo. Al fine di indagare gli aspetti più rilevanti di questa pratica, ho condotto alcune interviste ad alcuni localizzatori professionisti, per ottenere una prospettiva autentica e significativa in merito a questo tema. Dopo una breve introduzione all'industria videoludica e alla localizzazione dei videogiochi, ho presentato e commentato le risposte di tre professionisti selezionati ad alcune domande che ho formulato e che riguardano questo campo. Gli argomenti che sono stati affrontati erano di varia natura e riguardavano tematiche differenti, così da coprire quanti più aspetti possibili di questo settore. Nello specifico, ho voluto indagare temi quali la formazione dei localizzatori, gli strumenti e le strategie adottate per questo tipo di lavoro, soprattutto nell'affrontare sfide o difficoltà specifiche, nonché i molteplici aspetti di questo settore e le aspettative sul suo futuro, sulla base delle opinioni e delle esperienze degli intervistati. Lo scopo era quello di individuare aspetti interessanti e di fornire una visione pratica di questa disciplina, nonché di fare luce su un campo ancora poco considerato, soprattutto a livello accademico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio condotto è relativo allo sviluppo del Digital Twin di macchine automatiche finalizzato all’implementazione del cosiddetto Virtual Commissioning, cioè simulazioni virtuali della messa in servizio delle macchine per la verifica preliminare e/o ottimizzazione dei codici di controllo (Part Program o G-code). In particolare, il caso di studio trattato in questa tesi è la macchina F2F prodotta dall’Azienda GIULIANI (gruppo Bucci Automations S.p.a., Faenza – RA), con centro di lavoro bi-mandrino con tavola rotante azionato tramite controllore Fanuc. Dopo aver creato il Digital Twin della macchina, che ha richiesto come primo passo la digitalizzazione di alcuni componenti di cui non si avevano a disposizione i modelli CAD 3D, sono state effettuate simulazioni di cicli di lavoro di diversi semigrezzi, così da validare il modello in modo approfondito sulla base dell’esame di varie casistiche. In questa tesi si analizzano nel dettaglio il processo di sviluppo del modello e le procedure di simulazioni di Virtual Commissioning implementate sul software Eureka Virtual Machining (Roboris S.r.l., Pisa), delle quali vengono presentati i maggiori problemi riscontrati e illustrate le relative soluzioni. L’obiettivo è quello di fornire linee guida di carattere generale per affrontare anche in futuro le criticità più significative durante la fase di digitalizzazione delle macchine prodotte dall’Azienda. Inoltre, come applicazione particolare delle simulazioni Virtual Commissiong, è stata svolta un’attività di ottimizzazione per la riduzione del tempo di ciclo di lavoro di un pezzo, con lo scopo di incrementare la produttività della macchina. Infine, si fa notare che il produttore del software ha eseguito modifiche alla versione corrente di Eureka sulla base delle criticità che sono state riscontrate e segnalate durante lo sviluppo di questa tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente caso di studio prende forma da una problematica su una metodologia di stampa 3D relativamente nuova, la tecnologia PolyJet. Nella tesi, si verificano ed osservano i limiti di fabbricazione dei modelli ottenuti da questo processo di stampa, dovuti al particolare materiale di supporto che utilizza la tecnologia medesima a differenza di altre tecnologie esistenti. Nei dettagli, si è deciso di stampare dei particolari provini costituiti da strutture porose interconnesse, ottenute tramite superfici TPMS (Triply Periodical Minimal Surfaces), caratterizzate da fori molto piccoli e profondi ed osservare la facilità o la difficoltà nel rimuovere il materiale di supporto da ognuno di essi attraverso le attrezzature disponibili in laboratorio. I risultati ottenuti dall’esperimento hanno mostrato che, riducendo sempre di più i fori delle strutture dei provini, si va a complicare l’azione di rimozione del materiale di supporto, rendendo il processo difficile da compiere come nell’ultimo provino realizzato. Si evince che, nei tre casi osservati, è possibile rimuovere tutto il materiale di supporto dalle strutture, anche nell’ultimo manufatto, con fori di dimensione di un millimetro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scenario oggi più accreditato per spiegare la formazione delle galassie è quello del merging gerarchico: Sgr è una delle prove più importanti a favore di questo scenario. Sgr è una galassia satellite della MW ed è il caso migliore di processo di distruzione mareale in corso dalla MW. La sua distruzione ha contribuito alla costituzione dell'alone della Via Lattea. Di Sgr si osserva solo ciò che ne rimane del corpo principale, i suoi streams ed il suo nucleo, dominato dall'ammasso metal-poor M54. È la presenza di M54 che rende complessa la selezione di stelle metal-poor di Sgr: il main-body di Sgr è rarefatto e fortemente contaminato da stelle galattiche ed il suo nucleo si sovrappone con M54 rendendo quasi impossibile identificare stelle di Sagittario metal-poor non appartenenti ad M54. Fino ad ora l'unico metodo utilizzato per selezionare i targets per studiare la chimica di Sgr ha fatto uso della loro posizione sul CMD: questo metodo introduce un bias, selezionando solo le stelle metal-rich di Sgr. In questo lavoro sono state studiate 23 stelle metal-poor appartenenti al main-body di Sgr ma fuori dal raggio mareale di M54 selezionate grazie ai moti propri dalla missione GAIA. Gli spettri analizzati sono stati ottenuti con lo spettrografo UVES-FLAMES del VLT (ESO)da cui è stata ottenuta l'abbondanza di 17 elementi sia di stelle di Sgr che in 12 stelle di M54. Questo campione di abbondanze chimiche permette per la prima volta: (a) di comprendere la storia di arricchimento chimico di Sgr in un ampio range di metallicità (mai studiato finora) e (b) di confrontare la chimica di Sgr con quella di M54. Tali abbondanze dimostrano come Sgr abbia avuto un'evoluzione chimica diversa da quella della MW, con un contributo inferiore da parte di stelle massive, probabilmente a causa del suo basso SFR. Inoltre è stato possibile determinare la forte somiglianza chimica tra Sgr e M54, confermando che i due sistemi condividono la stessa storia di arricchimento chimico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato mira a fornire una traduzione parziale dall'inglese all'italiano del romanzo Everything Here is Beautiful dell'autrice asiatico-americana Mira T. Lee, un'opera di narrativa che affronta il tema della salute mentale. L'obiettivo principale del libro è abbattere gli stereotipi sulle malattie mentali e suscitare l’empatia di chi lo legge. Lo scopo di questa ricerca è quello di indagare i problemi derivanti dalla traduzione dei romanzi e presentare una panoramica di diverse teorie della traduzione al fine di analizzare e spiegare nel dettaglio le scelte effettuate durante il processo di traduzione. Inoltre, la tesi si propone di esaminare il legame tra cultura, letteratura e rappresentazioni della malattia mentale in narrativa. Il lavoro è strutturato nel seguente ordine: il primo capitolo consiste in un'introduzione teorica alla traduzione dei romanzi e alla multiperspectivity, che è una caratteristica del libro di Lee. Il secondo capitolo è dedicato a una rassegna dei principali approcci storici e letterari alla malattia mentale. Il terzo capitolo descrive il contenuto e la struttura del libro fornendo un'analisi approfondita delle strategie traduttive applicate; contiene inoltre la biografia dell'autrice e una breve riflessione sulla letteratura asiatico-americana, cui segue la traduzione parziale. Il capitolo finale comprende un commento generale sul processo di traduzione e analizza nel dettaglio alcune scelte traduttive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Distribuire un’applicazione che soddisfi i requisiti del cliente e che sia in grado di accogliere rapidamente eventuali modifiche è, al giorno d’oggi, d’obbligo per aziende che si occupano di applicazioni mobile che vogliano rimanere competitive sul mercato. Il principale fattore chiave in grado di mantenere un’azienda al passo con la continua evoluzione sia del mercato che delle tecnologie mobile è la continua innovazione e ottimizzazione dell’intero processo di sviluppo. La collaborazione e la comunicazione tra diversi team, l’utilizzo di cicli iterativi di sviluppo, i rilasci frequenti e l’automazione dei test sono alcune delle pratiche incentivate dalla cultura DevOps, adottabile con successo (si vedrà in questa tesi) anche per lo sviluppo di applicazioni mobile. Innovare e ottimizzare il processo di sviluppo non significa solo automatizzare l’esecuzione dei task. Un ruolo importante è giocato anche da aspetti legati all’applicazione: l’architettura, il paradigma di programmazione, e gli strumenti utilizzati. In particolare, al fine di applicare il principio “Don’t repeat yourself ” (DRY) e semplificare la manutenzione, diversi moderni framework per lo sviluppo di applicazioni mobile, detti multipiattaforma, propongono meccanismi che consentono di condividere codice tra piattaforme differenti. L’obiettivo di questa tesi è dunque quello di discutere (capitoli 1, 2 e 3) e mostrare, applicate ad un caso di studio industriale (capitoli 4, 5 e 6), l’uso di tecniche DevOps nell’ambito di applicazioni mobile, ed in particolare mostrando come queste siano applicabili in congiunzione ai framework di sviluppo multipiattaforma (in particolare, Kotlin Multiplatform).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo studio è l’implementazione di un sistema di navigazione autonomo in grado di calcolare la traiettoria di un mezzo aereo, noti che siano a priori dei punti di posizione detti waypoint. A partire da questa traiettoria, è possibile ottenere la sua rappresentazione in un codice che mette a disposizione immagini satellitari e ricavare le viste del terreno sorvolato in una serie di punti calcolati, in modo da garantire in ogni sequenza la presenza di elementi comuni rispetto a quella precedente. Lo scopo della realizzazione di questa banca dati è rendere possibili futuri sviluppi di algoritmi di navigazione basati su deep learning e reti neurali. Le immagini virtuali ottenute del terreno saranno in futuro applicate alla navigazione autonoma per agricoltura di precisione mediante droni. Per lo studio condotto è stato simulato un generico velivolo, con o senza pilota, dotato di una videocamera fissata su una sospensione cardanica a tre assi (gimbal). La tesi, dunque, introduce ai più comuni metodi di determinazione della posizione dei velivoli e alle più recenti soluzioni basate su algoritmi di Deep Learning e sistemi vision-based con reti neurali e segue in un approfondimento sul metodo di conversione degli angoli e sulla teoria matematica che ne sta alla base. Successivamente, analizza nel dettaglio il processo di simulazione della navigazione autonoma e della determinazione della traiettoria in ambiente software Matlab e Simulink, procedendo nell’analisi di alcuni casi di studio in ambienti realistici. L’elaborato si conclude con un breve riepilogo di quanto svolto e con alcune considerazioni sugli sviluppi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Industria 4.0 ha coinvolto il settore agroalimentare introducendo nuove strategie di tracciabilità, a favore della sostenibilità e della sicurezza alimentare. L’Organizzazione Internazionale della Vigna e del Vino pone tra gli obiettivi per il 2024 la transizione digitale della filiera, così da avere una tracciabilità trasparente e affidabile. Questo fornisce un vantaggio ai produttori e ai consumatori che dispongono di maggiori informazioni quantitative e qualitative del prodotto. I sistemi di tracciabilità sono integrati nella supply chain aumentandone la resilienza; tuttavia, la maggior parte degli ERP in commercio ricostruiscono la tracciabilità a posteriori: dal codice lotto finale si ricompone tutto il processo. Per monitorare costantemente la filiera ed incrementarne la trasparenza si stanno integrando nuove tecnologie alla tracciabilità, come l’intelligenza artificiale e la blockchain. Obiettivo di questa tesi è la progettazione di un sistema di tracciabilità blockchain. Pertanto, si introduce alla tracciabilità e alla blockchain descrivendo i principali contributi in letteratura che propongono approcci e strategie, evidenziando vantaggi e sfide future. Poi, si presenta il caso Moncaro, cooperativa agricola che ha cantine e vigneti nel territorio marchigiano, analizzando il processo di vinificazione in bianco dal punto di vista del flusso fisico e informativo, rispettivamente tramite BPMN e Relationship chart. Ai fini della modellazione e della scelta dei dati da inserire in tracciabilità, si analizzano le informazioni registrate negli ERP sviluppati da Apra s.p.a., software house, di cui Moncaro fruisce. Quindi, si propone la formulazione di un algoritmo in pseudocodice che permette di collegare sequenzialmente le attività, così, da ottenere la tracciabilità real time e un’architettura che può gestire tutte le informazioni della supply chain. Infine, si è implementato uno scenario produttivo reale, mediante l’architettura di database a grafo di Neo4j AuraDB

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I tendini e i legamenti sono fondamentali per lo svolgimento dei movimenti e spesso sono soggetti a rotture o lesioni che rappresentano circa il 50% di tutto il sistema muscoloscheletrico. Il tessuto è poco cellularizzato per questo ad oggi non esistono dispositivi impiantabili, come protesi o innesti biologici in grado di riprodurre in maniera soddisfacente la struttura gerarchica e le proprietà meccaniche. Le tecniche attuali ossia quelle conservative e chirurgiche hanno significative limitazioni per questo i ricercatori stanno sviluppando strutture innovative, detti scaffold, per guidare le cellule nella rigenerazione del tessuto di interesse. Tra le varie tecnologie per produrre scaffold per i tendini e i legamenti, l’elettrofilatura è una delle più promettenti. Questa consente di produrre nanofibre dalle caratteristiche morfologiche e meccaniche simili alle fibrille di collagene di tendini e legamenti. Questo lavoro di tesi presenta la descrizione di procedure e metodi di produzione e caratterizzazione di strutture gerarchiche elettrofilate in acido poli-L-lattico e in acido poli-L-lattico e collagene. I bundles elettrofilati, in entrambi i materiali, sono in grado di replicare i fascicoli di collagene mentre gli scaffold gerarchici sono stati prodotti assemblando i bundles con una membrana elettrofilata, in grado di riprodurre fedelmente l’ epitenon/epiligament e l’endotenon/endoligament, riproducendo l’intera struttura gerarchica di tendini e legamenti. Gli scaffolds gerarchici sono stati prodotti assemblando i bundles con una membrana elettrofilata, in grado di riprodurre fedelmente l’epitenon/ epiligament e l’endotenon/endoligament. Tutte le strutture realizzate sono state analizzate e testate sia morfologicamente che meccanicamente per valutare la similitudine con i rispettivi tessuti biologici.