998 resultados para Progettazione aeronautica, stima dei pesi, aerei da trasporto passeggeri, materiali compositi
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Questo lavoro mi ha dato la possibilità di unire tre grandi passioni: l’architettura, la storia e il teatro. Tali elementi hanno caratterizzato nel passato, come nel presente, vicissitudini e cambiamenti della città di Pesaro, scenario nel quale si alternano l’architettura a carattere nazionale e quella locale, la storia d’Italia e quella della comunità cittadina, gli spettacoli teatrali di richiamo internazionale a quelli di filodrammatica e dialettali. Con le dovute eccezioni, i cittadini pesaresi della mia generazione poco o nulla sanno della storia della città e della sua evoluzione, perché sono nati e cresciuti in anni in cui questa è rimasta pressoché invariata nella sua struttura urbana e nelle caratteristiche morfologiche; unico elemento visibile del continuo evolversi della città è l’espansione dell’area abitata verso la periferia, la progressiva saturazione dello spazio tra l’espansione urbana del dopoguerra e le zone periferiche. La memoria storica riguardante modifiche importanti che la città ha subìto è, come spesso accade, riposta in chi ha vissuto quei cambiamenti, nonché in qualche giornalista o studioso locale che per lavoro o passione indaga quegli avvenimenti. Tralasciando le controversie meramente politiche, Pesaro ha vissuto in passato una stagione di forti dibattiti sulle vicende architettoniche ed urbanistiche della città, tale fu il coinvolgimento e a volte l’ostruzionismo dell’opinione pubblica a tali trasformazioni; basti citare le discussioni e i dubbi sollevati dal Piano Particolareggiato del Centro Storico nel 1974 elaborato dagli architetti dell’Istituto Universitario di Architettura di Venezia - Carlo Aymonino, Costantino Dardi, Gianni Fabbri, Raffaele Panella, Gianugo Polesello, Luciano Semerani e Mauro Lena - nonostante negli anni seguenti solo pochi elementi del Piano vennero attuati e neanche compiutamente. Di questi dibattiti, negli anni seguenti, ve ne saranno pochi e limitati alla sfera politica, con scarso interesse e coinvolgimento da parte dei cittadini. Contrariamente, nell’ultimo periodo, si assiste parallelamente a due condizioni: un rinnovato interesse da parte dei cittadini per la storia della città, promosso anche dal moltiplicarsi di eventi, mostre, conferenze, pubblicazioni sull’argomento, e un’attenzione nuova per quelli che sono i temi legati alla qualità degli interventi architettonici ed urbanistici, da parte dell’amministrazione comunale. Primaria importanza nella promozione di questo interesse riveste l’Istituto di Storia Contemporanea della Provincia di Pesaro e Urbino e la Biblioteca–Archivio “Vittorio Bobbato”, i quali congiuntamente a diversi autori hanno realizzato vari studi e pubblicazioni su tali argomenti. Il Comune si è fatto promotore di diversi interventi, in attuazione di un Piano Regolatore Generale che, nelle intenzioni, mette al centro la qualità architettonica ed urbana degli interventi, puntando su nuove opere e, per quanto riguarda principalmente il Centro Storico, anche sul recupero dell’esistente. I presupposti dell’intervento progettuale si inseriscono in questo dibattito basandosi sull’idea, attualmente in discussione presso i diversi livelli istituzionali coinvolti, della realizzazione di un nuovo polo ospedaliero congiunto con la città di Fano; quando ciò si realizzerà, l’area ora occupata dall’ospedale pesarese verrà progressivamente liberata, interamente o in parte, determinando un grande vuoto urbano proprio alle porte del centro storico. Questo sito, di notevole privilegio sotto il profilo morfologico e posizionale rispetto alle infrastrutture, è assolutamente appropriato per insediarvi un polo culturale legato al teatro, essendo l’area confinante con quella sulla quale sorge il principale teatro cittadino, il Teatro Rossini. L’area di progetto è una testimonianza della storia urbana della città: presenta uno dei due esempi superstiti di quelli che furono i bastioni della cinta muraria cittadina, nella sua massima espansione, sotto il dominio dei Della Rovere ed il fatto che tale opera sia in parte arrivata ai giorni nostri, più che della scelta degli amministratori locali passati, fu il risultato di vicissitudini politiche, del caso e della centenaria presenza dell’ospedale che di fatto ha vincolato l’area preservandola da trasformazioni non idonee come accaduto per altre parti del centro storico. Se la storia urbana di Pesaro è la base per poter pensare il suo futuro, non meno importanza ricoprono le manifestazioni e le istituzioni che hanno fatto di Pesaro un punto d’incontro culturale a carattere internazionale, elementi anch’essi che testimoniano la qualità della città. La città ospita principalmente due eventi internazionali: la Mostra Internazionale del Nuovo Cinema e il Rossini Opera Festival, ai quali si legano altre importanti manifestazioni e istituzioni culturali. Strutturalmente indipendente, ma legato indissolubilmente alla figura del grande compositore pesarese a cui è dedicato il festival, vi è il Conservatorio Statale di Musica “Gioachino Rossini”, anch’esso un punto di riferimento nel panorama culturale e musicale internazionale. Uno degli elementi caratterizzanti del festival rossiniano è quello di essere un evento che letteralmente coinvolge l’intera città, poiché le varie rappresentazioni sceniche, i concerti, gli eventi collaterali, trovano spazio in diversi luoghi del centro storico e non solo, arrivando ad utilizzare anche l’Adriatic Arena (palazzo dello sport), ubicato in periferia. L’allestimento di una struttura sportiva al fine di potervi svolgere spettacoli teatrali è un onere ulteriore per l’organizzazione dell’evento che viene ripagato solo dalla grande affluenza di pubblico che è capace di garantire tale struttura, allontanandosi però dall’intuizione iniziale dell’evento che voleva nel centro cittadino il fulcro stesso della manifestazione. Sviluppare un progetto per un centro culturale legato al teatro e alla musica, oltre ad essere un argomento di elevato interesse personale, è un tema ricorrente da oltre un decennio nei dibattiti cittadini, che però non ha trovato fino ad ora la possibilità di essere realizzato. Le motivazioni possono essere molteplici, dalla mancanza di una struttura univoca con cui la pubblica amministrazione possa confrontarsi, alla cronica mancanza di fondi pubblici che la obbligherebbero a ricercare figure private in grado di co-finanziare l’intervento e, non meno importante, la mancanza, fino ad ora, di un’area idonea. Al di là dell’utilizzo a cui sarà destinata l’area di progetto, è di primaria importanza per l’amministrazione comunale aprire un tavolo di confronto con la proprietà dell’area ospedaliera, in modo da non lasciare nulla al caso nelle scelte che condizioneranno la trasformazione. Questa tesi è un’opportunità di confronto personale con la città di oggi, le trasformazioni passate e quelle future; l’architettura, la storia della città ed il teatro possono essere tre elementi cardine per una crescita ed una consapevolezza nuova delle potenzialità di Pesaro nel panorama culturale. La progettazione di un luogo per la cultura e lo spettacolo si fonda su tutte queste premesse, sulla necessità per la città di dotarsi di luoghi idonei che possano finalmente accogliere al meglio tutte le manifestazioni legate al teatro e alla musica e che possa inserirsi quale ulteriore spunto di dibattito nella preparazione del dossier che punta a far riconoscere Pesaro quale “Città della Musica”, inserita nella rete delle città creative dell’UNESCO.
Resumo:
L’attività della tesi riguarda le protesi mioelettriche, gli arti protesici maggiormente diffusi, le quali sono descrivibili come arti robotici in cui i segmenti artificiali sono attuati da giunti elettromeccanici alimentati da batterie ricaricabili ed attivati mediante segnali elettromiografici (segnali elettrici generati dalla contrazione dei muscoli). Tali protesi di arto superiore attualmente disponibili in commercio potrebbero essere inadeguate per una riabilitazione soddisfacente di alcuni pazienti con una amputazione di alto livello che richiedono una elevata funzionalità nella vita quotidiana. In questo contesto si inserisce l’attività di ricerca del Centro Protesi INAIL di Budrio di Vigorso, Bologna, e dell’Università di Bologna i quali stanno sviluppando nuovi arti protesici con il progetto a lungo termine di rendere disponibili svariate soluzioni di protesi di arto superiore in grado di soddisfare la maggior parte delle richieste degli amputati. Lo scopo di questa tesi è l’introduzione di un nuovo rotatore omerale attivo da integrare alla protesi di arto superiore disponibile presso i nostri laboratori. Per ottenere questo risultato è stata utilizzata una procedura di progettazione già consolidata in attività precedenti per lo sviluppo di una protesi di spalla a due gradi di libertà. Differenti modelli cinematici sono stati studiati tramite analisi cinematiche per determinare l’incremento delle prestazioni a seguito dell’introduzione del nuovo rotatore omerale attivo. Sono state inoltre condotte analisi cinetostatiche per definire le specifiche tecniche di riferimento (in termini di carichi agenti sul rotatore omerale) e per guidare il dimensionamento della catena di trasmissione di potenza del nuovo dispositivo protesico. Ulteriori specifiche tecniche sono state considerate per garantire l’irreversibilità spontanea del moto sotto carichi esterni (quando i giunti attivi della protesi non sono alimentati), per salvaguardare l’incolumità del paziente in caso di caduta, per misurare la posizione angolare del rotatore omerale (in modo da implementare strategie di controllo in retroazione) e per limitare i consumi e la rumorosità del dispositivo. Uno studio di fattibilità ha permesso la selezione della architettura ottimale della catena di trasmissione di potenza per il nuovo rotatore omerale. I criteri di scelta sono stati principalmente la limitazione del peso e dell’ingombro del nuovo dispositivo protesico. Si è quindi proceduto con la progettazione di dettaglio alla quale è seguita la costruzione di un prototipo del nuovo rotatore omerale presso i nostri laboratori. La tesi tratta infine una attività preliminare di sperimentazione che ha permesso di fare considerazioni sulle prestazioni del prototipo ed osservazioni importanti per le successive attività di revisione ed ottimizzazione del progetto del rotatore omerale.
Resumo:
La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.
Resumo:
Questa tesi di laurea descrive il progetto del riduttore, usato per realizzare la trasmissione del moto dal motore elettrico alle ruote di un autoveicolo ibrido o elettrico. Per prima cosa vengono analizzate le caratteristiche richieste al riduttore, definendone il layout ed il rapporto di riduzione; successivamente si studiano le sollecitazioni a cui il rotismo sarà sottoposto, per definire correttamente un ciclo di carico da usare nel dimensionamento dei vari componenti. Fatto ciò, vengono calcolati e modellati i componenti interni del riduttore. Infine viene anche eseguito uno studio funzionale della carcassa che dovrà contenere tali componenti.
Resumo:
Combustion control is one of the key factors to obtain better performances and lower pollutant emissions for diesel, spark ignition and HCCI engines. An algorithm that allows estimating, as an example, the mean indicated torque for each cylinder, could be easily used in control strategies, in order to carry out cylinders trade-off, control the cycle to cycle variation, or detect misfires. A tool that allows evaluating the 50% of Mass Fraction Burned (MFB50), or the net Cumulative Heat Release (CHRNET), or the ROHR peak value (Rate of Heat Release), could be used to optimize spark advance or to detect knock in gasoline engines and to optimize injection pattern in diesel engines. Modern management systems are based on the control of the mean indicated torque produced by the engine: they need a real or virtual sensor in order to compare the measured value with the target one. Many studies have been performed in order to obtain an accurate and reliable over time torque estimation. The aim of this PhD activity was to develop two different algorithms: the first one is based on the instantaneous engine speed fluctuations measurement. The speed signal is picked up directly from the sensor facing the toothed wheel mounted on the engine for other control purposes. The engine speed fluctuation amplitudes depend on the combustion and on the amount of torque delivered by each cylinder. The second algorithm processes in-cylinder pressure signals in the angular domain. In this case a crankshaft encoder is not necessary, because the angular reference can be obtained using a standard sensor wheel. The results obtained with these two methodologies are compared in order to evaluate which one is suitable for on board applications, depending on the accuracy required.
Resumo:
La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.
Resumo:
Progetto meccanico di manipolatore a sei gradi di libertà e progetto, implementazione e collaudo dei sistemi preposti al comando, al controllo e all’attuazione del manipolatore. Per il controllo dei movimenti del braccio robotico viene utilizzato un puntatore nel quale è integrato un led ad infrarossi attivabile tramite pulsante. Il segnale relativo alla posizione che deve assumere il braccio articolato viene indirizzato, sempre in ambiente Labview, ad una scheda di controllo dei servomotori adibiti alla movimentazione del manipolatore. Al fine di verificare la precisione e la ripetibilità del sistema progettato sono state effettuate 60 misure dell’errore di posizionamento dei servomotori.
Resumo:
Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.
Resumo:
Il lavoro di tesi svolto riguarda la progettazione e lo sviluppo di un algoritmo per la pianificazione ottimizzata della distribuzione con viaggi sincronizzati; il metodo sviluppato è un algoritmo mateuristico. I metodi mateuristici nascono dall’integrazione di algoritmi esatti, utilizzati all’interno di un framework metaeuristico, scelto come paradigma di soluzione del problema. La combinazione di componenti esatte e algoritmi metaeuristici ha lo scopo di sfruttare i vantaggi di entrambi gli approcci: grazie all'uso di componenti esatte, è possibile operare in modo efficace e di concentrarsi su alcuni dei vincoli del problema, mentre, con l'utilizzo di un framework metaeuristico, si può efficacemente esplorare grandi aree dello spazio di ricerca in tempi accettabili. Il problema analizzato nel lavoro di tesi è un problema di trasporto, ovvero il Vehicle Routing Problem con finestre temporali e vincoli di sincronizzazione a coppie (VRPTWPS). Il problema richiede di individuare un piano di organizzazione ottimizzato per i viaggi di consegna merci presso un insieme di clienti; ogni cliente richiede che la consegna avvenga all’interno di orari predefiniti; un sottoinsieme di essi richiede, inoltre, che la consegna venga effettuata con la presenza di esattamente due addetti. La presenza di quest’ultimo vincolo richiede, dunque, che due incaricati, indipendentemente dai viaggi di visita che questi effettuano, si incontrino presso uno stesso cliente nello stesso istante. Il vincolo di sincronizzazione rende il problema difficile da risolvere in maniera ottimizzata con i tradizionali metodi di ricerca locale; da ciò nasce l’uso dei metodi mateuristici per la risoluzione ottimizzata del problema. Grazie all’utilizzo di algoritmi esatti, i metodi mateuristici riescono a trattare in maniera più efficace alcuni vincoli dei problemi da risolvere.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
L’elaborazione di questa tesi è stata svolta con l’ausilio di strumenti di Business Intelligence. In particolare, si è dapprima alimentato un data warehouse territoriale, in cui sono stati inseriti, dopo averli elaborati, i dati messi a disposizione dagli osservatori territoriali nazionali e dall’azienda Geofor spa. A partire da questi, sono stati prodotti degli indicatori statistici e dei report, utili per evidenziare andamenti e trend di crescita di alcuni particolari indici. Il principale strumento utilizzato è StatPortal, un portale Web di Business Intelligence OLAP per la realizzazione di Data warehouse territoriali. L’argomento sarà approfondito nel capitolo sette, dedicato agli strumenti utilizzati, ma in breve, questo sistema consente di raccogliere, catalogare e condividere informazione statistica e geostatistica, nonché di produrre indicatori e reportistica. Il lavoro è organizzato come segue: inizialmente c’è una prima parte di definizione e classificazione dei rifiuti che ha l’obiettivo di permettere al lettore di inquadrare il tema e prendere coscienza del problema. Successivamente, è stata sviluppata una parte più storica, con una rapida analisi temporale per comprendere il “tipping point”, cioè il momento in cui i rifiuti hanno iniziato a essere percepiti come un problema per la comunità, concludendo con un accenno agli scenari attuali e futuri. In seguito, si è indirizzata l’attenzione sul panorama italiano, europeo e mondiale citando alcuni interessanti e originali esempi di efficienza nella gestione dei rifiuti, che potrebbero servire da spunto per qualche stakeholder nazionale. Si è poi introdotta quella che è la normativa vigente, sottolineando quali sono gli obiettivi che impone ed entro quali tempi dovranno essere raggiunti, elencando quindi i principi fondamentali del D.lgs.152/2006 e del D.lgs 36/2003. Continuando su questo filo logico, si è voluto introdurre al lettore, la questione dei Rifiuti Solidi Urbani (RSU) nel Comune di Pisa. Sono stati definiti: lo stato dell’arte dell’igiene urbana pisana, i sistemi implementati nella città con i vari pregi e difetti e quali sono state le azioni pratiche messe in atto dall’Amministrazione per far fronte al tema. Il capitolo sei rappresenta uno dei due punti focali dell’intero lavoro: il Rapporto sullo Stato dell’Ambiente della città di Pisa in tema di rifiuti urbani. Qui saranno analizzati i vari indici e report prodotti ad hoc con lo strumento Statportal appena menzionato, con lo scopo di segnalare evidenze e obiettivi dell’Amministrazione. Nel settimo capitolo si analizza la fase di progettazione del Data Warehouse. Sono elencati i passi fondamentali nella costruzione di un DW dimensionale, esponendone in primo luogo la specifica dei requisiti del progetto ed elencando per ognuno di essi le dimensioni, le misure e le aggregazioni relative. In seguito saranno descritti nel dettaglio la fase di progettazione concettuale e lo schema logico. In ultimo, sarà presentato l’altro punto focale di questa tesi, nonché la parte più interattiva: un portale web creato appositamente per il Comune con l’obiettivo di coinvolgere ed aiutare i cittadini nel conferimento dei rifiuti da loro prodotti. Si tratta di una sorta di manuale interattivo per individuare come eseguire una corretta differenziazione dei rifiuti. Lo scopo primario è quello di fare chiarezza alle utenze nella differenziazione, il che, in maniera complementare, dovrebbe incrementare la qualità del rifiuto raccolto, minimizzando i conferimenti errati. L’obiettivo principale di questo lavoro resta quindi il monitoraggio e l’analisi delle tecniche e dei processi di gestione dei rifiuti nel Comune di Pisa. Analogamente si vuole coinvolgere e suscitare l’interesse del maggior numero di persone possibile al tema della sostenibilità ambientale, rendendo consapevole il lettore che il primo passo verso un mondo più sostenibile spetta in primis a Noi che quotidianamente acquistiamo, consumiamo ed infine gettiamo via i residui senza troppo preoccuparci. Il fatto che anche in Italia, si stia sviluppando un senso civico e una forte responsabilizzazione verso l’ambiente da parte dei cittadini, fa ben sperare. Questo perché si è riusciti a imprimere il concetto che le soluzioni si ottengano impegnandosi in prima persona. E’ alla nostra comunità che si affida il dovere di non compromettere l’esistenza delle generazioni future, incaricandola del compito di ristabilire un equilibrio, ormai precario, tra umanità e ambiente, se non altro perché, come recita un vecchio proverbio Navajo: “il mondo non lo abbiamo in eredità dai nostri padri ma lo abbiamo in prestito dai nostri figli”.