957 resultados para Bitumi ad “alta lavorabilità”, Reologia, Dynamic Shear Rheometer, Master Curve, Zero-Shear Viscosity


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di ricerca che ho svolto in questi mesi si è focalizzato sull'integrazione dei risultati raggiunti grazie all'elaborazione di nuovi dati sperimentali. Questi sono stati prelevati dalla corteccia visiva di macachi, attraverso l'utilizzo di tecniche di registrazione elettro-fisiologiche mediante array di micro-elettrodi[25], durante la presentazionedi alcuni filmati (sequenze di immagini o frames). Attraverso la tecnica del clustering, dalle registrazioni degli esperimenti sono stati raggruppati gli spike appartenenti ad uno stesso neurone, sfruttando alcune caratteristiche come la forma del potenziale d'azione. Da questa elaborazione e stato possibile risalire a quali stimoli hanno prodotto una risposta neurale. I dati messi a disposizione da Ringach non potevano essere trattati direttamente con le tecniche della spike-triggered average e della spike-triggered covariance a causa di alcune loro caratteristiche. Utilizzando filtri di Gabor bidimensionali e l'energia di orientazione e stato pero possibile modellare la risposta di cellule complesse in corteccia visiva primaria. Applicare questi modelli su dati ad alta dimensionalita immagini molto grandi), sfruttando la tecnica di standardizzazione (Z-score), ha permesso di individuare la regione, la scala e l'orientazione all'interno del piano immagine dei profili recettivi delle cellule di cui era stata registrata l'attività neurale. Ritagliare tale regione e applicare la spike-triggered covariance su dati della giusta dimensionalita, permetterebbe di risalire ai profili recettivi delle cellule eccitate in un preciso momento, da una specifica immagine e ad una precisa scala e orientazione. Se queste ipotesi venissero confermate si potrebbe marcare e rafforzare la bontà del modello utilizzato per le cellule complesse in V1 e comprendere al meglio come avviene l'elaborazione delle immagini.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato di tesi viene presentata la comparazione tra due codici CFD, rispettivamente Fluent e OpenFOAM, mediante simulazioni che sono alla base di uno studio numerico di flusso attorno ad un pantografo per treno ad alta velocità. Si è apprezzato quindi la facilità d’uso di un software venduto tramite licenza e la difficoltà di un software open source come OpenFOAM, il quale però ha vantaggi in termini di adattamento ai casi più specifici. Sono stati quindi studiati due casi, scambio termico in regime laminare attorno ad un cilindro bidimensionale e flusso turbolento completamente sviluppato in un canale. Tutte le simulazioni numeriche hanno raggiunto convergenza e sono state validate positivamente mediante confronto con dati sperimentali. Il primo caso prevede un cilindro investito da un flusso a temperatura minore rispetto alla temperatura della superficie del cilindro; per avere più riscontri, sono state condotte diverse prove a valori differenti del numero di Prandtl, e per ogni simulazione è stato ricavato il corrispettivo numero di Nusselt, successivamente comparato con i dati sperimentali per la validazione delle prove. A partire dalla creazione della griglia di calcolo, è stato effettuato uno studio del fenomeno in questione, creando così una griglia di calcolo sviluppata a valle del cilindro avente maggior densità di celle a ridosso della parte del cilindro. In aggiunta, svolgendo le prove con schemi numerici sia del primo che del secondo ordine, si è constatata la miglior sensibilità degli schemi numerici del secondo ordine rispetto a quelli del primo ordine. La seconda tipologia di simulazioni consiste in un flusso turbolento completamente sviluppato all’interno di un canale; sono state svolte simulazioni senza e con l’uso delle wall functions, e quindi usate griglie di calcolo differenti per i due tipi di simulazioni, già disponibili per entrambi i software. I dati ottenuti mostrano uno sforzo computazionale maggiore per le simulazioni che non prevedono l’uso delle wall functions, e quindi una maggiore praticità per le simulazioni con le wall functions. Inoltre, le simulazioni di questo secondo caso sono state svolte con diversi modelli di turbolenza; in Fluent sono stati utilizzati i modelli k-ε e RSM mentre in OpenFOAM è stato utilizzato solo il modello k-ε in quanto il modello RSM non è presente. La validazione dei risultati è affidata alla comparazione con i dati sperimentali ricavati da Moser et all mediante simulazioni DNS, mettendo in risalto la minor accuratezza delle equazioni RANS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attività di tesi è stata rivolta allo sviluppo e messa a punto del trattamento termico di austempering per un acciaio ad alto contenuto di Si. Scopo della ricerca è stato valutare la possibilità di effettuare il trattamento termico secondo metodiche industriali analoghe a quelle utilizzate per il trattamento delle ghise sferoidali austemperate (ADI). Si sono studiati in particolare gli effetti dei tempi e delle temperature del trattamento sulle microstrutture e le proprietà meccaniche dell'acciaio. I risultati della sperimentazione e delle analisi hanno permesso di definire i parametri ottimali del processo di austempering, al fine di ottenere una microstruttura ausferritica in grado di garantire al contempo elevata resistenza e buona tenacità e duttilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo di massima di una presa d'aria per un turbocompressore accoppiato ad un motore diesel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Capannone ad alta mobilità e facilità di montaggio per zone terremotate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro presentato di seguito è volto al miglioramento delle prestazioni dell'apparato per la Tecar terapia prodotto da EME.srl. Tale apparato presenta, allo stato attuale, un sistema basato principalmente su circuiti a componenti attivi operanti in regione lineare che producono una oscillazione a 455kHz, la amplificano e infine la adattano alle caratteristiche richieste per tale apparato. Ampiezza dell'oscillazione e corrente sul carico (paziente) vengono controllate mediante un doppio sistema di retroazione: uno analogico e uno basato su microcontrollore. Entrambi i sistemi lavorano sui valori medi di tensione e corrente. Lo scopo di tale elaborato è quello di migliorare tale apparato rendendo possibile il controllo di nuovi parametri, come la frequenza di oscillazione cosa non possibile nell'attuale implementazione. Si valuterà, nell'ambito dell'attività di tesi, se mantenere l'idea costruttiva originale in cui si aveva un oscillatore autonomo con una cascata di amplificazione a efficienza non elevatissima, retroazionato analogicamente e un controllo mediante uC, oppure passare ad una nuova architettura totalmente gestita da uC sfruttando topologie utilizzate in altri macchinari di EME.srl con l'aggiunta di soluzioni tratte dal mondo delle energie rinnovabili. Per lo studio di tale apparato verrà effettuata inoltre una caratterizzazione sperimentale del corpo umano utilizzando la mano di un soggetto volontario per avere un carico campione realistico e cercando ulteriori riscontri in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio di un trasformatore trifase ad alta frequenza per convertitori switching con prove a vuoto e cortocircuito tramite simulazione software.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea nasce dall’esperienza maturata presso l’azienda FCA Italy (Fiat Chrysler Automobiles S.p.A., ex VM Motori) nello stabilimento situato a Cento in provincia di Ferrara, in particolare all’interno dell’ufficio di Ricerca Avanzata CRM (Centro Ricerca Motori), divisione del reparto R&D (Research and Development). Tale esperienza viene riassunta (in piccola parte) in questo elaborato di Tesi, che tratta tematiche inerenti allo sviluppo di un sistema di sovralimentazione assistito elettricamente, applicato ad un propulsore Diesel 3.0L V6 destinato ai segmenti “Premium” del mercato. Il sistema utilizzato, che ha come componente principale un compressore attuato da una macchina elettrica, appartiene all’insieme delle tecnologie cosiddette di e-boosting. Questo tipo di tecnologia, fortemente innovativa e ad oggi non ancora presente sul mercato, ha le potenzialità per rappresentare un significativo passo avanti nel processo di riduzione delle emissioni, dei consumi e del miglioramento delle performance dei moderni motori endotermici alternativi, al punto che un numero crescente di costruttori di motori sta oggi studiando soluzioni come quella oggetto di questo elaborato. L’obiettivo è stato quindi quello di definire, applicare e gestire il sistema di e-boost a banco motore e, successivamente, caratterizzarlo dal punto di vista energetico e testarne le effettive potenzialità. Le fasi in cui ho apportato il mio contributo sono state, in particolare, quelle di definizione e integrazione dei nuovi componenti all’interno del layout motore preesistente, di realizzazione e implementazione delle strategie di controllo in un sistema dedicato in grado di gestire efficacemente i componenti, e di sperimentazione al banco prova. I risultati conseguiti al termine dell’attività sono quindi inerenti allo sviluppo e validazione del sistema di controllo, alla valutazione delle performance del propulsore risultante e alla caratterizzazione e analisi critica del sistema di e-boost dal punto di vista energetico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nei primi vent’anni, la ricerca in ambito fotovoltaico si è focalizzata sull’evoluzione di quelle tecnologie associate alla semplice cella ed al sistema intero, per offrire miglioramenti con particolare riguardo al fronte dell’efficienza. Negli ultimi decenni, lo studio sull’energia rinnovabile ha ampliato i propri confini, sino a quella branca denominata elettronica di potenza, che ne permette la conversione e lo sfruttamento da parte dell’utente. L’elaborato si propone quindi di apportare un contributo verso tale direzione, teorico piuttosto che pratico, esaminando dapprima il mondo che effettivamente circonda l’impianto fotovoltaico grid-connected e successivamente ponderando e pianificando le scelte che conseguono dall’analisi letteraria. Particolare attenzione sarà rivolta al concetto di multilivello relativo agli inverter e agli aspetti che ne comportano il largo utilizzo nell’elettronica di potenza. Si stima che i primi brevetti risalgano a circa trent’anni orsono e uno di questi, tracciabile, riguarderebbe la configurazione a cascata di full-bridge, alimentati separatamente in DC, per ottenere a valle una scala di tensioni AC. Per mezzo di manipolazioni, nascerà in seguito il diode-clamped, attuale predecessore del Neutral Point Clamped T-Type Inverter. Si introdurranno pertanto le principali caratteristiche che contraddistinguono il convertitore, peculiare riguardo per la configurazione single leg nonché trifase. Ardua sarà la scelta sulla tecnica di controllo dell’inverter, sia per quanto concerne la fase simulativa che quella realizzativa, in quanto il dispositivo è indubbiamente considerato innovativo nel proprio campo di appartenenza. Convalidando la letteratura per mezzo di opportune simulazioni, si potrà procedere alla progettazione e quindi all’assemblaggio della scheda che effettivamente include l’inverter. Il lavoro implicherà numerose prove, effettuate in svariate condizioni di funzionamento, al fine di sostenere le conclusioni teoriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Del granulato di ossido di stronzio (anche nella formula carbonato) è stato testato come nuovo possibile materiale di utilizzo per la cattura ad alta temperatura di diossido di carbonio da effluenti gassosi di scarto. Sono stati condotti diversi esperimenti con strumentazioni già preposte, quali test termogravimetrici, microscopia elettronica (SEM) e Xray (XRD). Mentre per la sperimentazione in quantità più rilevanti di materiale è stato costruito un impianto a letto fisso ex novo. Le prove TG hanno evidenziato una capacità media di sorbente parti a circa il 5% in massa di ossido, a temperature tra i 1100°C e i 1200°C, in situazione di regime (dopo numerosi cicli di carb/calc), con una buona conservazione nel tempo delle proprietà adsorbitive, mentre per le prove a letto fisso, si è registrato un calo di valori variabile tra il 3 e il 4%, con un netto miglioramento nel caso di calcinazione in vapore surriscaldato fino al 5%. Il trattamento in vapore ha sortito l’importante effetto di calcinazione del diossido di carbonio dal sorbente, quindi facilmente separabile dal flusso in uscita, misurato tramite cattura in una soluzione di idrossido di bario. Importanti fenomeni di sintering e densificazione hanno portato ad occludere completamente la camera di reazione sviluppando notevoli sovrappressioni interne. Tali fenomeni sono stati approfonditi tramite analisi SEM e XRD. Si è constatato un aumento notevole della grandezza dei granuli in caso di trattamento in vapore con la formazione di legami stabili e con conservazione della porosità. Nel caso di trattamento senza vapore surriscaldato i granuli hanno sinterizzato tramite formazione di legami, ma sempre con conservazione della macroporosità. Il lavoro di tesi è stato inquadrato nel contesto tecnologico al riguardo le tecniche CCS esistenti ed in progetto, con un attento studio bibliografico riguardo lo stato dell’arte, impianti esistenti, costi, metodi di cattura usati, metodologie di trasporto dei gas, metodologie di stoccaggio esistenti e in progetto. Si sono considerati alcuni aspetti economici per sviluppare un modello previsionale di spesa per una possibile applicazione di cattura per un impianto di produzione energetica. Con la progettazione e dimensionamento di un sistema integrato di adsorbimento tramite l’accoppiamento di 2 reattori dedicati ai cicli di carbonatazione e calcinazione del materiale sorbente. Infine si sono considerati gli aspetti salienti dello stoccaggio del diossido di carbonio in reservoir tramite le tecniche di EOR e EGR (Enhanced Oil/Gas Recovery) utilizzando la stessa CO2 come fluido spiazzante degli idrocarburi in posto. Concludendo il lavoro di tesi e di sperimentazione ha contribuito in modo tangibile allo scopo prefissato, andando a caratterizzare un nuovo materiale per la cattura di diossido di carbonio da effluenti gassosi ad alta temperatura, ed andando a verificare un’importante fenomeno rigenerativo non previsto delle capacità sorbitive dei materiali sottoposti a test.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Modello Standard descrive la fenomenologia delle interazioni fondamentali con estrema precisione; tuttavia è incompleto e deve esistere nuova fisica oltre tale modello. Al momento non si è in grado di prevedere come e a che scala di energia tale fisica si manifesti. Un’eventuale risonanza nello stato finale μ + μ − a masse elevate costituirebbe un segnale di nuova fisica. Un fenomeno di questo tipo viene catalogato come produzione della particella Z' , la quale non rappresenterebbe necessariamente un nuovo bosone vettore sequenziale alla Z_0 . Questa tesi si colloca nell’ambito della ricerca della Z' nei processi di interazione protone-protone a LHC in termini di una generica risonanza che decade in coppie di muoni di carica opposta. I limiti attualmente fissati stabiliscono che non vi siano segnali di nuove risonanze per il Modello Sequenziale (SSM) al di sotto dei 2960 GeV. In questo lavoro di tesi si effettua un’analisi per un’eventuale Z ', fino a 5 TeV di massa. A Maggio 2015, LHC ha raggiunto un’energia nel centro di massa di 13 TeV aumentando di un fattore 10 o più il potere di scoperta per oggetti con massa superiore a 1 TeV. In questo scenario, favorevole all’osservazione di fenomeni rari, si inserisce la mia ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio e ottimizzazione di un sistema di rigenerazione per pompe di calore ad alta efficienza di concezione innovativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.