1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino


Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’affermazione del trasporto containerizzato verificatasi negli ultimi decenni ha determinato una profonda rivoluzione nell’ambito del trasporto marittimo internazionale. L’unitizzazione dei carichi e l’innovazione tecnologica dei mezzi utilizzati per il trasporto e la movimentazione consentono oggi di gestire ingenti volumi di traffico in tempi rapidi e con costi relativamente contenuti. L’utilizzo di unità standard ha inoltre reso possibile lo sviluppo del trasporto intermodale e la realizzazione di catene logistiche complesse. In questa tesi sono state analizzate le problematiche relative alla gestione delle operazioni che vengono svolte all’interno dei terminal container, i nodi fondamentali del trasporto intermodale. In particolare è stato studiato il caso del nuovo Terminal Container del Porto di Ravenna. Trattandosi di un terminal ancora in fase di progettazione, sono state applicate delle metodologie che consentono di effettuare una valutazione preliminare di quelle che potrebbero essere le potenzialità del nuovo terminal. In primo luogo sono stati determinati il throughput potenziale del terminal, in funzione delle aree di stoccaggio e della capacità operativa della banchina, e il numero medio di mezzi necessari alla movimentazione di tale volume di traffico annuo. Poi si è proceduto all’applicazione di modelli analitici specifici per la valutazione delle performance dell’equipment del terminal. I risultati ottenuti sono stati infine utilizzati per lo studio delle interazioni tra i sub-sistemi principali del terminal attraverso la teoria delle code, allo scopo di valutarne il livello di servizio e individuare eventuali criticità.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro trae origine dagli obiettivi e dalle relative misure applicative della riforma dell’OCM zucchero del 2006 e nello specifico dal Piano nazionale per la razionalizzazione e riconversione della produzione bieticolo-saccarifera approvato dal MIPAF nel 2007. Lo studio riguarda la riconversione dello zuccherificio di Finale Emilia (MO), di appartenenza del Gruppo bieticolo-saccarifero Co.Pro.B, in un impianto di generazione di energia elettrica e termica che utilizza biomassa di origine agricola per la combustione diretta. L'alimentazione avviene principalmente dalla coltivazione dedicata del sorgo da fibra (Sorghum bicolor), integrata con risorse agro-forestali. Lo studio mostra la necessità di coltivazione di 4.400 ettari di sorgo da fibra con una produzione annua di circa 97.000 t di prodotto al 75% di sostanza secca necessari per l’alimentazione della centrale a biomassa. L’obiettivo é quello di valutare l’impatto della nuova coltura energetica sul comprensorio agricolo e sulla economia dell’impresa agricola. La metodologia adottata si basa sulla simulazione di modelli aziendali di programmazione lineare che prevedono l’inserimento del sorgo da fibra come coltura energetica nel piano ottimo delle aziende considerate. I modelli predisposti sono stati calibrati su aziende RICA al fine di riprodurre riparti medi reali su tre tipologie dimensionali rappresentative: azienda piccola entro i 20 ha, media da 20 a 50 ha e grande oltre i 50 ha. La superficie di entrata a livello aziendale, se rapportata alla rappresentatività delle aziende dell’area di studio, risulta insufficiente per soddisfare la richiesta di approvvigionamento dell’impianto a biomassa. Infatti con tale incremento la superficie di coltivazione nel comprensorio si attesta sui 2.500 ettari circa contro i 4.400 necessari alla centrale. Lo studio mostra pertanto che occorre un incentivo superiore, di circa 80-90 €/ha, per soddisfare la richiesta della superficie colturale a livello di territorio. A questi livelli, la disponibilità della coltura energetica sul comprensorio risulta circa 9.500 ettari.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo del progetto triennale del dottorato di ricerca è lo studio delle alterazioni genetiche in un gruppo di pazienti affetti da micosi fungoide ed un gruppo di pazienti affetti da sindrome di Sezary. Dalle biopsie cutanee è stato estratto il DNA e analizzato, comparandolo con DNA sano di riferimento, utilizzando la tecnica array-CGH, allo scopo di identificare la presenza di geni potenzialmente implicati nel processo di oncogenesi. Questa analisi è stata eseguita, per ogni paziente, su biopsie effettuate ad una fase iniziale di malattia e ad una fase di progressione della stessa. Sugli stessi pazienti è stata inoltre eseguita un’analisi miRNA. Si ipotizza che il profilo d’espressione dei miRNA possa infatti dare informazioni utili per predire lo stato di malattia, il decorso clinico, la progressione tumorale e la riposta terapeutica. Questo lavoro è stato poi eseguito su biopsie effettuate in pazienti affetti da sindrome di Sezary che, quando non insorge primitivamente come tale, si può considerare una fase evolutiva della micosi fungoide. La valutazione delle alterazioni genetiche, ed in particolare la correlazione esistente tra duplicazione e delezione genetica e sovra/sottoespressione genetica, è stata possibile attraverso l’interpretazione e la comparazione dei dati ottenuti attraverso le tecniche array-CGH e miRNA. Sono stati comparati i risultati ottenuti per valutare quali fossero le alterazioni cromosomiche riscontrate nei diversi stadi di malattia. L’applicazione dell’array-CGH e della metodica di analisi mi-RNA si sono rivelate molto utili per l’identificazione delle diverse aberrazioni cromosomiche presenti nel genoma dei pazienti affetti da micosi fungoide e sindrome di Sezary, per valutare la prognosi del paziente e per cercare di migliorare o trovare nuove linee terapeutiche per il trattamento delle due patologie. Lo studio di questi profili può rappresentare quindi uno strumento di grande importanza nella classificazione e nella diagnosi dei tumori.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel 2011 si sono registrati in Italia 205.638 incidenti stradali con lesioni a persone. Il numero dei morti (entro il 30° giorno) è stato di 3.860, quello dei feriti ammonta a 292.019.Rispetto all’obiettivo fissato dall’Unione Europea nel Libro Bianco del 2001, che prevedeva la riduzione della mortalità del 50% entro il 2010, benché sia vicina a questo traguardo, l’Italia non ha ancora raggiunto tale livello (Figura I.1). Sulle strade urbane si sono verificati 157.023 incidenti, con 213.001 feriti e 1.744 morti. Sulle Autostrade gli incidenti sono stati 11.007, con 18.515 feriti e 338 decessi. Sulle altre strade extraurbane, ad esclusione delle Autostrade, si sono verificati 37.608 incidenti, con 65.503 feriti e 1.778 morti. L’indice di mortalità mostra che gli incidenti più gravi avvengono sulle strade extraurbane (escluse le autostrade), dove si registrano 4,7 decessi ogni 100 incidenti. Gli incidenti sulle strade urbane sono meno gravi, con 1,1 morti ogni 100 incidenti. Sulle Autostrade tale indice è pari a 3,1. L’indice di mortalità si mantiene superiore alla media giornaliera (1,9 decessi ogni 100 incidenti) per tutto l’arco di tempo che va dalle 21 alle 7 del mattino, raggiungendo il valore massimo intorno alle 5 del mattino (6,0 decessi ogni 100 incidenti). La domenica è il giorno nel quale si registra il livello più elevato dell’indice di mortalità (2,8 morti per 100 incidenti). In 7 casi su 10 (69,7%) le vittime sono i conducenti di veicoli, nel 15,3% i passeggeri trasportati e nel 15,1% i pedoni. La categoria di veicolo più coinvolta in incidente stradale è quella delle autovetture(66,1%), seguono motocicli (14,0%), i ciclomotori (5,4%) e le biciclette (4,5%).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’ultimo decennio ha visto un radicale cambiamento del mercato informatico, con la nascita di un numero sempre maggiore di applicazioni rivolte all’interazione tra utenti. In particolar modo, l’avvento dei social network ha incrementato notevolmente le possibilità di creare e condividere contenuti sul web, generando volumi di dati sempre maggiori, nell’ordine di petabyte e superiori. La gestione di tali quantità di dati ha portato alla nascita di soluzioni non relazionali appositamente progettate, dette NoSQL. Lo scopo di questo documento è quello di illustrare come i sistemi NoSQL, nello specifico caso di MongoDB, cerchino di sopperire alle difficoltà d’utilizzo dei database relazionali in un contesto largamente distribuito. Effettuata l'analisi delle principali funzionalità messe a disposizione da MongoDB, si illustreranno le caratteristiche di un prototipo di applicazione appositamente progettato che sfrutti una capacità peculiare di MongoDB quale la ricerca full-text. In ultima analisi si fornirà uno studio delle prestazioni di tale soluzione in un ambiente basato su cluster, evidenziandone il guadagno prestazionale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro di questa tesi è incentrato sulla crescita e lo studio delle proprietà strutturali di sistemi nanostrutturati di titanio e ossido di titanio, prodotti mediante la tecnica della condensazione in gas inerte. Lo studio è finalizzato in particolare ad ottenere un materiale idoneo per la produzione di idrogeno tramite la foto-elettrolisi. Nel primo capitolo viene descritto a livello teorico il processo di scissione dell’acqua all’interno di celle foto-elettrochimiche, in cui viene impiegato il TiO2 (titania) come foto-anodo. Nel secondo capitolo viene introdotta la tecnica di crescita, viene descritta la macchina utilizzata illustrandone vantaggi e limitazioni. Inoltre viene fornita una descrizione teorica del tipo di crescita che avviene all’interno della camera di evaporazione. Allo scopo di comprendere meglio questi processi, vengono riportati nel capitolo 3 alcuni studi, basati su principi primi, riguardanti la stabilità di fase e le trasformazioni di fase per i tre principali polimorfi del TiO2. Nel capitolo 4 sono illustrate le tecniche impiegate per l’indagine strutturale: diffrazione e assorbimento di raggi X con relativa analisi dati, microscopia elettronica a scansione. Prima di misurare l’attività fotocatalitica dei campioni di nanoparticelle di titania, è necessario condurre delle misure di fotocorrente in una cella foto-elettrochimica, i risultati di queste analisi di tipo funzionale sono presentati nel capitolo 5. Nel capitolo 6 sono riportate le conclusioni del lavoro di tesi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi si occupa di tematiche legate alla rigenerazione e riqualificazione urbana, nello specifico viene approfondita la "metodologia" d'intervento dei "Contratti di Quartiere II" istituiti con la Lg. 21/2001. Viene poi studiato e analizzato il progetto del Contratto di Quartiere "San Donato" a Bologna nel quale vengono affrontate in maniera alquanto incisiva tutte le prerogative dello strumento di legge.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Scopo: L’obiettivo del presente programma di studio è stato quello di identificare e validare nuovi possibili bersagli terapeutici per l’osteosarcoma (OS) partendo dall’analisi del chinoma umano. Risultati: L’analisi del profilo di espressione genica ottenuta su 21 campioni clinici di OS ad alto grado di malignità ha permesso di selezionare le seguenti chinasi di possibile rilevanza biologica per l’OS: AURK-A, AURK-B, CDK2, PIK3CA, PLK-1. Le chinasi selezionate sono state validate tramite RNA interference. Successivamente è stata valutata l’efficacia dei relativi inibitori specifici: VX-680 e ZM-447439 inibitori delle Aurora-chinasi, Roscovitina di CDK2 e NMS1 di PLK-1, già inclusi in studi clinici. In termini d’inibizione della crescita cellulare le linee sono risultate maggiomente sensibili ai farmaci VX-680 e NMS1. E’ stata osservata una minor sensibilità ai farmaci VX-680, ZM447439 e NMS1 nelle linee doxorubicina(DX)-resistenti (caratterizzate da elevati livelli di espressione di ABCB1), indicando questi farmaci come potenziali substrati di ABCB1. La Roscovitina, nonostante i valori di IC50 elevati, non sembrerebbe substrato di ABCB1. La validazione preclinica di VX-680 e ZM447439 è stata completata. La forte inibizione della crescita è causata da endoreduplicazione per mancata citodieresi con conseguente formazione di una popolazione iperploide e apoptosi. Inoltre, VX-680 inibisce la motilità e la capacità di formare colonie. Esperimenti di associazione farmacologica mostrano che VX-680 interagisce positivamente con tutti i chemioterapici convenzionali impiegati nel trattamento dell’OS. NMS-1 produce interazioni positive con la DX in linee cellulari DX-resistenti, probabilmente grazie all’effetto revertante esercitato su ABCB1. La Roscovitina produce interazioni positive con CDDP e DX nelle varianti resistenti, effetto probbilmente dovuto al ruolo di CDK2 nei meccanismi di riparo del DNA. Conclusioni: L’analisi in vitro dell’attività degli inibitori ha permesso di identificare VX-680 come nuovo farmaco di potenziale interesse clinico, soprattutto in virtù delle sue interazioni sinergiche con i chemioterapici di uso convenzionale nel trattamento dell’osteosarcoma.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il pomodoro è una delle colture principali del panorama agro-alimentare italiano e rappresenta un ingrediente base della tradizione culinaria nazionale. Il pomodoro lavorato dall’industria conserviera può essere trasformato in diverse tipologie merceologiche, che si differenziano in base alla tecniche di lavorazione impiegate ed alle caratteristiche del prodotto finito. la percentuale di spesa totale destinata all’acquisto di cibo fuori casa è in aumento a livello globale e l’interesse dell’industria alimentare nei confronti di questo canale di vendita è quindi crescente. Mentre sono numerose le indagine in letteratura che studiano i processi di acquisto dei consumatori finali, non ci sono evidenze di studi simili condotti sugli operatori del Food Service. Obiettivo principale della ricerca è quello di valutare le preferenze dei responsabili acquisti del settore Food Service per diverse tipologie di pomodoro trasformato, in relazione ad una gamma di attributi rilevanti del prodotto e di caratteristiche del cliente. La raccolta dei dati è avvenuta attraverso un esperimento di scelta ipotetico realizzato in Italia e alcuni mercati esteri. Dai risultati ottenuti dall’indagine emerge che i Pelati sono la categoria di pomodoro trasformato preferita dai responsabili degli acquisti del settore Food Service intervistati, con il 35% delle preferenze dichiarate nell'insieme dei contesti di scelta proposti, seguita dalla Polpa (25%), dalla Passata (20%) e dal Concentrato (15%). Dai risultati ottenuti dalla stima del modello econometrico Logit a parametri randomizzati è emerso che alcuni attributi qualitativi di fiducia (credence), spesso impiegati nelle strategie di differenziazione e posizionamento da parte dell’industria alimentare nel mercato Retail, possono rivestire un ruolo importante anche nell’influenzare le preferenze degli operatori del Food Service. Questo potrebbe quindi essere un interessante filone di ricerca da sviluppare nel futuro, possibilmente con l'impiego congiunto di metodologie di analisi basate su esperimenti di scelta ipotetici e non ipotetici.