493 resultados para Organizzazione Azienda Timetracking Android
Resumo:
Un problema comune agli Ingegneri Gestionali è quello legato alla necessità di dover sempre spiegare in cosa consista veramente il proprio campo di studi. Amici, conoscenti e parenti non dimostrano mai, infatti, familiarità con il termine. Chi scrive è costretto addirittura ad ammettere di avere una madre che, a pochi giorni dalla discussione dalla Tesi Magistrale, continui ad affermare di non aver ancora capito quale lavoro andrà poi a fare il figlio. Medicina, Giurisprudenza ed Economia sono concetti facili da comprendere; “studiare con approccio quantitativo l'organizzazione e i processi produttivi delle imprese costruendo e applicando modelli per la soluzione dei loro problemi” in effetti lo è un po’ meno. Accade così che si debbano quindi aggiungere altri termini, spiegando l’ingegneria gestionale come insieme di altre discipline: produzione, logistica, marketing, economia aziendale, risorse umane, gestione, progetti... Si dà il caso che questo insieme di altre discipline coincida in larga parte con una branca ancora più oscura ai più: l’event management. Questo lavoro di Tesi è incentrato proprio sulla gestione di un evento: gli FPA Worlds 2012, i Mondiali di Frisbee Freestyle 2012 tenutisi a Riccione dal 2 al 5 agosto. L’autore, nell’ambito del suo percorso di Tirocinio, ne è stato l’event manager, ovvero il massimo responsabile e organizzatore, andando a far confluire esperienze, conoscenze e passioni personali con la coronazione degli studi universitari. L’intero progetto lo ha coinvolto dal luglio 2010 al settembre 2012, all’interno di un’azienda riminese con cui già collaborava dal 2009. La Tesi, di carattere prettamente sperimentale, va quindi ad esporre i processi gestionali “nascosti” dietro ad un evento che ha riscosso successo di pubblico e mediatico, affiancando in ognuno dei capitoli tematici modelli teorici e risultati pratici. La vastità di conoscenze, competenze e strumenti utilizzati ha reso quest’esperienza altamente stimolante, così come le numerose sfide che si sono succedute nel difficile percorso per organizzare il miglior Mondiale di Frisbee Freestyle di sempre.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
La crescente disponibilità di dispositivi meccanici e -soprattutto - elettronici le cui performance aumentano mentre il loro costo diminuisce, ha permesso al campo della robotica di compiere notevoli progressi. Tali progressi non sono stati fatti unicamente per ciò che riguarda la robotica per uso industriale, nelle catene di montaggio per esempio, ma anche per quella branca della robotica che comprende i robot autonomi domestici. Questi sistemi autonomi stanno diventando, per i suddetti motivi, sempre più pervasivi, ovvero sono immersi nello stesso ambiente nel quale vivono gli essere umani, e interagiscono con questi in maniera proattiva. Essi stanno compiendo quindi lo stesso percorso che hanno attraversato i personal computer all'incirca 30 anni fa, passando dall'essere costosi ed ingombranti mainframe a disposizione unicamente di enti di ricerca ed università, ad essere presenti all'interno di ogni abitazione, per un utilizzo non solo professionale ma anche di assistenza alle attività quotidiane o anche di intrattenimento. Per questi motivi la robotica è un campo dell'Information Technology che interessa sempre più tutti i tipi di programmatori software. Questa tesi analizza per prima cosa gli aspetti salienti della programmazione di controllori per robot autonomi (ovvero senza essere guidati da un utente), quindi, come l'approccio basato su agenti sia appropriato per la programmazione di questi sistemi. In particolare si mostrerà come un approccio ad agenti, utilizzando il linguaggio di programmazione Jason e quindi l'architettura BDI, sia una scelta significativa, dal momento che il modello sottostante a questo tipo di linguaggio è basato sul ragionamento pratico degli esseri umani (Human Practical Reasoning) e quindi è adatto alla implementazione di sistemi che agiscono in maniera autonoma. Dato che le possibilità di utilizzare un vero e proprio sistema autonomo per poter testare i controllori sono ridotte, per motivi pratici, economici e temporali, mostreremo come è facile e performante arrivare in maniera rapida ad un primo prototipo del robot tramite l'utilizzo del simulatore commerciale Webots. Il contributo portato da questa tesi include la possibilità di poter programmare un robot in maniera modulare e rapida per mezzo di poche linee di codice, in modo tale che l'aumento delle funzionalità di questo risulti un collo di bottiglia, come si verifica nella programmazione di questi sistemi tramite i classici linguaggi di programmazione imperativi. L'organizzazione di questa tesi prevede un capitolo di background nel quale vengono riportare le basi della robotica, della sua programmazione e degli strumenti atti allo scopo, un capitolo che riporta le nozioni di programmazione ad agenti, tramite il linguaggio Jason -quindi l'architettura BDI - e perché tale approccio è adatto alla programmazione di sistemi di controllo per la robotica. Successivamente viene presentata quella che è la struttura completa del nostro ambiente di lavoro software che comprende l'ambiente ad agenti e il simulatore, quindi nel successivo capitolo vengono mostrate quelle che sono le esplorazioni effettuate utilizzando Jason e un approccio classico (per mezzo di linguaggi classici), attraverso diversi casi di studio di crescente complessità; dopodiché, verrà effettuata una valutazione tra i due approcci analizzando i problemi e i vantaggi che comportano questi. Infine, la tesi terminerà con un capitolo di conclusioni e di riflessioni sulle possibili estensioni e lavori futuri.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Distribuzione efficiente di mobile sensing data tramite modello push e integrazione con PubSubHubBub
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
Ho progettato un sistema semi automatico per il disimballo di bobine di film plastico formato da una rulliera motorizzata, una catenaria a denti di cane, un dispenser di euro pallet e una pinza end-effector. Inoltre mi sono concentrato sullo studio della logistica dei carrelli elevatori dell'azienda, producendo una mappatura dettagliata per individuare percorsi anomali o inefficienze. Prima di dedicarmi a modellazione 3D e calcoli, ho cercato di reperire più informazioni possibili che mi potessero aiutare ad ottenere un prodotto che rispondesse a tutte le specifiche richieste. Per individuare le caratteristiche progettuali su cui concentrarmi ho elaborato delle tabelle QFD, compilate assieme agli operatori addetti al disimballo, ottenendo così un’oggettiva priorità sulle funzioni necessarie. La progettazione ha portato ad un macchinario sicuramente competitivo che risponde a pieno alle funzioni richieste, nei tempi e nei modi dettati dall’azienda.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
Il progetto descritto in questo documento consiste nello sviluppo di un Framework composto da un'applicazione Android in grado di comandare il movimento di un robot collegato ad una scheda Arduino tramite interfaccia di comunicazione Bluetooth
Resumo:
Il campo della coordinazione può beneficiare di nuovi strumenti e tecnologie per il proprio sviluppo o per rendere accessibili le sue funzionalità ad un pubblico più vasto. Il progetto TuCSoN, in particolare, include lo strumento Inspector tramite il quale è possibile monitorare ed interagire con l'intero spazio di coordinazione. Al fine di rendere disponibili queste funzionalità anche al mondo mobile è necessario eseguire il porting dell'applicazione. In questa tesi, perciò, verranno prima di tutto analizzate le caratteristiche principali dei modelli di coordinazione e, in particolare, del modello TuCSoN. In seguito eseguiremo un'introduzione sulla tecnologia Android, che ci fornirà gli strumenti necessari per la creazione di un framework mobile equivalente all'Inspector. Infine verranno affrontate le problematiche principali per eseguire con successo il porting, come ad esempio la necessità di ridefinire l'intera interfaccia grafica o l'utilizzo di nuovi componenti quali i service e le activity. Questa operazione, quindi, dimostrerà l'esigenza di adattare l'Inspector ai meccanismi appartenenti al nuovo ambiente di esecuzione.
Resumo:
Ogni luogo, ogni città, reca i segni dell’evoluzione e della trasformazione dettata dal tempo. In alcuni casi il passato viene visto con un’accezione negativa, in altri positiva a tal punto da monumentalizzarla. Nel caso della città di Verucchio non è possibile mettere in ombra il valore, e la forza della Rocca del Sasso, che per la sua storia e la sua posizione, che la rende visibile sia dall’interno che dall’esterno del centro storico, la attesta come simbolo della città. Allo stesso tempo questa città di piccole dimensioni possiede un ricco passato che non è rintracciabile all’interno della città storica ma che emerge dal verde, nonchè dagli spazi nascosti sotto il parco che cinge perimetralmente la città. Questi momenti della storia, importanti e riconoscibili, possono essere connessi nonostante sia notevole il salto temporale che li divide. Lo strumento deve essere una forma che li unisca, uno spazio pubblico, limitato ma aperto, distinguibile ma integrato nel paesaggio, un nuovo “layer” che si sovrapponga a quelli precedenti esaltandone il valore. Il tema della direzione, del percorso, è alla base dei ragionamenti e delle soluzioni proposte per la realizzazione di un museo archeologico. A differenza dei luoghi pubblici come la piazza o il teatro, in questo caso l’esposizione prevede che l’utente si muova negli ambienti, che segua in maniera dinamica una serie di spazi, di figure, di affacci, che devono essere in grado si susseguirsi in maniera fluida, attraverso un “respiro” che mantenga alta l’attenzione del visitatore. Adottato questo tema si ha la possibilità di declinarlo più volte, attraverso non solo la disposizione degli spazi ma anche con la posizione dei volumi e degli assi che li generano. Il progetto del nuovo museo si pone in una zona che può essere definita come “di cerniera” tra il centro storico e il parco archeologico. A livello territoriale questa può essere giudicata una zona critica, poiché sono più di trenta i metri di dislivello tra queste due zone della città. La sfida è quindi quella di trasformare la lontananza da problema a opportunità e relazionarsi con la conformazione del territorio senza risultare eccessivamente impattanti ed invasivi su quest’ultimo. Poiché la città di Verucchio possiede già un museo archeologico, inserito all’interno dell’ex convento e della chiesa di Sant’Agostino, il percorso archeologico, che vede il museo progettato come fulcro del tutto, prevede che il turista abbia la possibilità di conoscere la civiltà villanoviana visitando sia il museo di progetto che quello esistente, avendo questi differenti allestimenti che non creano delle “sovrapposizioni storiche”, poiché sono uno tematico e l’altro cronologico. Il museo esistente si inserisce all’interno di un edificio esistente, adattando inevitabilmente i propri spazi espositivi alla sua conformazione. La realizzazione di un una nuova struttura porterebbe a una migliore organizzazione degli spazi oltre che ad essere in grado di accogliere anche i reperti presenti all’interno dei magazzini dell’ex convento e dei beni culturali di Bologna. La necropoli Lippi è solo una delle necropoli individuate perimetralmente alla città e i reperti, rilevati, catalogati e restaurati, sono in numero tale da poter essere collocati in una struttura museale adeguata. Il progetto si sviluppa su più fronti: l’architettura, l’archeologia ed il paesaggio. Il verde è una componente fondamentale del sistema della città di Verucchio, risulta essere un elemento di unione, che funge talvolta da perimetro del centro, talvolta da copertura della nuda roccia dove l’inclinazione del terreno non ha permesso nel tempo la realizzazione di edifici e strutture urbane, si mette in contrapposizione con la forma e i colori della città.
Resumo:
Questa tesi si prefissa l’obiettivo di analizzare l'evoluzione dei sistemi FPGA nel corso degli ultimi anni, evidenziando le novità e gli aspetti tecnici più significativi che ogni famiglia ha introdotto. Il primo capitolo avrà il compito di mostrare l’architettura ed il funzionamento generale di un FPGA, cercando di illustrarne le principali caratteristiche. Il secondo capitolo introdurrà i dispositivi FPGA Xilinx e mostrerà le caratteristiche tecniche dei principali dispositivi prodotto dall'azienda. Il terzo capitolo mostrerà invece le caratteristiche tecniche degli FPGA più recenti prodotti da Altera. Il quarto ed ultimo capitolo, invece, metterà a confronto alcuni parametri fondamentali dei dispositivi descritti nell'elaborato.
Resumo:
La dissertazione affronterà il tema del controllo qualità nei progetti, applicando conoscenze, tecniche e strumenti propri del Project e del Multiproject Management. L’analisi partirà svolgendo, nel primo capitolo, considerazioni introduttive riguardo le due discipline citate. Lo scopo ultimo sarà quello di elaborare un sistema di controllo integrato della qualità, indirizzato principalmente al Project Management che è presente in una qualsiasi organizzazione che opera per progetti. Nel secondo capitolo verrà illustrato il metodo denominato Multidimensional Project control System sul quale il modello sviluppato in seguito si basa. La progettazione di un sistema di controllo è una parte importante dello sforzo di gestione di un progetto. Tale sistema è basato su una serie di obiettivi di progetto e sulla loro importanza relativa e fonda la sua natura su una sistematica valutazione in corso d’opera dello stato di conformità del progetto, sia a livello di processo che a livello di output. Nel capitolo conclusivo si affronta l’obiettivo principale di questo elaborato. Sono stati forniti dati e documenti dall’azienda Despar Italia c.r.l. ed è stato chiesto di sviluppare un metodo di controllo che il Project Management potesse utilizzare per implementare un processo di verifica della qualità di progetto. Viene quindi descritta l’azienda, come il Management pianifica, gestisce e controlla i progetti e quali necessità devono essere soddisfatte. Si procede poi con l’illustrazione e spiegazione del metodo sviluppato, chiarito da un esempio esplicativo. L’elaborato si concluderà con delle riflessioni finali, proponendo critiche e spunti per eventuali sviluppi futuri.
Resumo:
Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.