603 resultados para catalizzatori supporto pentandioli
Resumo:
Il citofluorimetro è uno strumento impiegato in biologia genetica per analizzare dei campioni cellulari: esso, analizza individualmente le cellule contenute in un campione ed estrae, per ciascuna cellula, una serie di proprietà fisiche, feature, che la descrivono. L’obiettivo di questo lavoro è mettere a punto una metodologia integrata che utilizzi tali informazioni modellando, automatizzando ed estendendo alcune procedure che vengono eseguite oggi manualmente dagli esperti del dominio nell’analisi di alcuni parametri dell’eiaculato. Questo richiede lo sviluppo di tecniche biochimiche per la marcatura delle cellule e tecniche informatiche per analizzare il dato. Il primo passo prevede la realizzazione di un classificatore che, sulla base delle feature delle cellule, classifichi e quindi consenta di isolare le cellule di interesse per un particolare esame. Il secondo prevede l'analisi delle cellule di interesse, estraendo delle feature aggregate che possono essere indicatrici di certe patologie. Il requisito è la generazione di un report esplicativo che illustri, nella maniera più opportuna, le conclusioni raggiunte e che possa fungere da sistema di supporto alle decisioni del medico/biologo.
Resumo:
Il presupposto della ricerca consiste nel riconosciuto valore storico-testimoniale e identitario e in un significativo potenziale d’indicazione pianificatoria e progettuale che detengono in sé i segni del paesaggio rurale tradizionale. Allo stato attuale, sebbene tali valori vengano ampiamente affermati sia nell’ambiente normativo-amministrativo che in quello scientifico, è tuttora riscontrabile una carenza di appropriati metodi e tecniche idonei a creare opportuni quadri conoscitivi per il riconoscimento, la catalogazione e il monitoraggio dei paesaggi rurali tradizionali a supporto di politiche, di piani e di progetti che interessano il territorio extraurbano. La ricerca si prefigge l’obiettivo generale della messa a punto di un set articolato ed originale di strumenti analitici e interpretativi di carattere quantitativo idonei per lo studio delle trasformazioni fisiche dei segni del paesaggio rurale tradizionale e per la valutazione del loro grado di integrità e rilevanza alla scala dell’azienda agricola. Tale obiettivo primario si è tradotto in obiettivi specifici, il cui conseguimento implica il ricorso ad un caso studio territoriale. A tal proposito è stato individuato un campione di 11 aziende agricole assunte quali aree studio, per una superficie complessiva pari all’incirca 200 ha, localizzate nel territorio dell’alta pianura imolese (Emilia-Romagna). L’analisi e l’interpretazione quantitativa delle trasformazioni fisiche avvenute a carico dei sopraccitati segni sono state condotte a decorrere da prima dell’industrializzazione all’attualità e per numerosi istanti temporali. Lo studio si presenta sia come contributo di metodo concernente la lettura diacronica dei caratteri tradizionali spaziali e compositivi del territorio rurale, sia come contributo conoscitivo relativo alle dinamiche evolutive dei paesaggi tradizionali rurali dell’area indagata.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
La tesi riguarda la creazione di una architettura che ha lo scopo di far interagire attivamente un utente con una mappa digitale tramite browser web e un applicativo che calcola dei percorsi in base ad un algoritmo di ottimizzazione. Un ambito interessante, attuale e che avrà, molto probabilmente, notevoli sviluppi futuri. Basti pensare per esempio a come le persone interagiscono con le mappe digitali tramite i famosi Google Maps o Google Earth, Bing Maps e OpenStreetMap. Questa interazione è diventata talmente naturale che è ormai intuitivo ruotare la rotellina del mouse per zoomare oppure tenere premuto il tasto sinistro per trascinare la mappa. Spesso questi applicativi web offrono servizi per il calcolo di percorsi, o rilasciano anche delle API per interagire e personalizzare alcuni aspetti, anche se spesso in modo limitato per questioni di copyright. In questo contesto entrano in gioco associazioni, singoli individui e fondazioni che creano software e standard fruibili da chiunque per creare applicativi e architetture personalizzate senza vincoli di diritti troppo limitanti. In questa tesi viene mostrato un approccio che permette una personalizzazione molto dettagliata e un'alta interoperabilità con queste applicazioni specifiche. Ma tutti questi aspetti positivi sono fruibili, per ora, solo mediante supporto umano avente un bagaglio di esperienze tecniche adeguate.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Questo lavoro di tesi ha riguardato lo studio della reazione di addizione coniugata enantioselettiva di idrossilammine N-Cbz-protette a nitroolefine, attraverso l’utilizzo di una serie di catalizzatori organici bi-funzionali in grado di attivare contemporaneamente la nucleofilicità dell’idrossilammina, per mezzo di una reazione acido-base, e il trans-β-nitrostirene, attraverso interazione via legame a idrogeno.
Resumo:
L’organocatalisi asimmetrica costituisce quella parte della chimica organica che è in grado di favorire con grande efficienza la formazione di prodotti enantiomericamente arricchiti, sfruttando l’azione di piccole molecole organiche per catalizzare reazioni chimiche. Questi catalizzatori organici non comprendendo la presenza di metalli, generalmente sono quindi atossici, stabili, facilmente disponibili e sintetizzabili. Nel corso del progetto presentato in questa tesi, è stato condotto uno studio sulla reazione di N-alchilazione enantioselettiva di alchilidenossindoli organocatalizzata. Le prove sono state principalmente incentrate sulla ricerca del catalizzatore adatto alla reazione, tentando di effettuare la reazione via base catalisi. Quest’approccio introduce un’importante vantaggio di carattere sintetico, effettuando un tipo di reazione che innanzitutto è raramente riportata in letteratura, e che, inoltre, non risulta essere mai stata effettuata in maniera enantioselettiva ed organocatalizzata. L’importanza sintetica dello scheletro derivante dagli ossindoli e le condizioni di reazione, costituiscono altri due valori aggiunti di questo progetto di ricerca.
Resumo:
I temi della ricerca riguardano il rapporto fra avvento del web e la modificazione dei processi di formazione di identità personale e sociale, della percezione dello spazio e del tempo, del prosumerismo digitale e delle varie forme di partecipazione ed associazione. Centrale è stata l’analisi del rapporto fra il Web 2.0 e la trasformazione delle forme di comunicazione a vari livelli, sia personali che sociali. Partendo da una analisi dei contesti socio-economici globali che hanno trasformato la società moderna nella società informazionale, è stato impostato un percorso di ricerca che approfondisse gli attuali criteri di strutturazione della propria identità, alla luce dell’avvento dei social network e delle reti virtuali di comunicazione come strumento preferenziale di socializzazione. La realtà delle reti sociali è stata analizzata in un’ottica di aggregazione spontanea mirata tanto alla comunicazione quanto alla tutela dei consumatori, e le trasformazioni portate dal Web 2.0 sono state la chiave di lettura per ridefinire i parametri della partecipazione dal basso generata dalla rete. Per comprendere la portata di tali trasformazioni nel contesto italiano è stato impostato un paragone tra l’uso del web negli Stati Uniti e in Italia, avendo le recente campagne elettorali dimostrato l’importanza del web nella partecipazione politica bottom-up; il percorso di ricerca ha dunque affrontato una comparazione di due casi, quello italiano e quello statunitense, finalizzato a comprendere l’attuale ruolo dell’utente nelle dinamiche di comunicazione mediatica. Per focalizzare al meglio le trasformazioni sociali generate dalla partecipazione on line è stato infine analizzato il caso del citizen journalism, per misurare, attraverso la metodologia dell’etnografia digitale, l’entità delle trasformazioni in corso. Il portale di giornalismo partecipativo YouReporter è stato il contesto privilegiato dove poter verificare le ipotesi iniziali circa le dinamiche di partecipazione, e il supporto di programmi di elaborazione statistica netnografica ha permesso di destrutturare al meglio tali dinamiche.
Resumo:
Nell’ambito della Chimica Sostenibile e dell’applicazione dei suoi principi per la salvaguardia dell’ambiente, il progetto di dottorato ha riguardato lo sviluppo di materiali innovativi e lo studio della loro interazione con sistemi biologici e biomimetici. In particolare l’attività si è focalizzata sulla sintesi di liquidi ionici ed indagini delle interazioni con membrane cellulari e sull’utilizzo ed isolamento di molecole da fonti rinnovabili. I liquidi ionici sono sali organici liquidi a temperature inferiori ai 100 °C; sono considerati promettenti solventi a ridotta tossicità, ma vanno chiarite a pieno le modalità di interazione con i sistemi biologici ed i meccanismi di tossicità. A questo scopo è stata impiegata una batteria di test bio-chimici, con saggi di fluorescenza e colorimetrici, che hanno permesso di discriminare le diverse tipologie di interazioni con varie strutture di membrana. Le informazioni raccolte sono servite per progettare sostanze meno dannose per le strutture cellulari, al fine di scegliere le funzionalità molecolari che consentano ai liquidi ionici di mantenere la loro attività ma di essere meno dannosi per l’ambiente. Per quanto riguarda l’utilizzo ed isolamento di molecole da fonte rinnovabili, si è utilizzata la tecnica della pirolisi per l’ottenimento di starting materials ed il loro impiego nella sintesi di chemicals in alternativa a composti derivanti da fonti fossili. La pirolisi tradizionale della cellulosa fornisce una molecola interessante, per semplicità denominata LAC, in quantità insufficienti ad un uso applicativo. Nell’ambito delle ricerche svolte è stato scoperto che la pirolisi condotta in presenza di catalizzatori meso-strutturati (MCM-41) drogati con metalli di transizione, fornisce buone quantità di LAC. LAC si è dimostrato promettente sia per la produzione di nuove molecole con possibili applicazioni nella chimica fine e farmaceutica, che come monomero per nuovi polimeri (copolimero ed omopolimero).
Resumo:
Le pietre artificiali ed i cementi artistici utilizzati durante la stagione Liberty rappresentano tutt’oggi un patrimonio artistico non ancora sufficientemente studiato. In seguito ad una ricerca bibliografica su testi e riviste dei primi anni del Novecento, è stata eseguita una ricognizione del patrimonio architettonico emiliano-romagnolo, al fine di valutarne i materiali e le tipologie di degrado più diffuse. Le città e le zone oggetto di studio sono state: Bologna, Ferrara, Modena e provincia, Reggio Emilia, Parma, Firenze, la Romagna e le Marche settentrionali. Tra gli edifici individuati sono state analizzate le decorazioni e gli intonaci di tre edifici ritenuti particolarmente significativi: il villino Pennazzi (noto anche come Villa Gina) a Borgo Panigale (Bologna), villa Verde a Bologna e l’ex-albergo Dorando Pietri a Carpi. Da tali edifici sono stati selezionati campioni rappresentativi delle diverse tipologie di decorazioni in pietra artificiale e successivamente sono stati caratterizzati in laboratorio tramite diffrattometria a raggi x (XRD), termogravimetria (TGA), microscopio ottico in sezioni lucide, microscopio elettronico a scansione (SEM) e porosimetria ad intrusione di mercurio (MIP). In particolare per Villa Verde sono state formulate e caratterizzate diverse tipologie di malte variando il tipo di legante ed il rapporto acqua/cemento, al fine di garantire la compatibilità fisico-meccanica con il supporto negli interventi di risarcimento delle lacune previsti nel restauro. L’attività sperimentale svolta ha permesso di mettere a punto un vero e proprio protocollo diagnostico per il restauro di questo tipo di decorazioni che potrà essere utilizzato sia nei casi di studio analizzati che per ogni futuro intervento.
Resumo:
La presente tesi è dedicata al riuso nel software. Eccettuata un'introduzione organica al tema, l'analisi è a livello dei meccanismi offerti dai linguaggi di programmazione e delle tecniche di sviluppo, con speciale attenzione rivolta al tema della concorrenza. Il primo capitolo fornisce un quadro generale nel quale il riuso del software è descritto, assieme alle ragioni che ne determinano l'importanza e ai punti cruciali relativi alla sua attuazione. Si individuano diversi livelli di riuso sulla base dell'astrazione e degli artefatti in gioco, e si sottolinea come i linguaggi contribuiscano alla riusabilità e alla realizzazione del riuso. In seguito, viene esplorato, con esempi di codice, il supporto al riuso da parte del paradigma ad oggetti, in termini di incapsulamento, ereditarietà, polimorfismo, composizione. La trattazione prosegue analizzando differenti feature – tipizzazione, interfacce, mixin, generics – offerte da vari linguaggi di programmazione, mostrando come esse intervengano sulla riusabilità dei componenti software. A chiudere il capitolo, qualche parola contestualizzata sull'inversione di controllo, la programmazione orientata agli aspetti, e il meccanismo della delega. Il secondo capitolo abbraccia il tema della concorrenza. Dopo aver introdotto l'argomento, vengono approfonditi alcuni significativi modelli di concorrenza: programmazione multi-threaded, task nel linguaggio Ada, SCOOP, modello ad Attori. Essi vengono descritti negli elementi fondamentali e ne vengono evidenziati gli aspetti cruciali in termini di contributo al riuso, con esempi di codice. Relativamente al modello ad Attori, viene presentata la sua implementazione in Scala/Akka come caso studio. Infine, viene esaminato il problema dell'inheritance anomaly, sulla base di esempi e delle tre classi principali di anomalia, e si analizza la suscettibilità del supporto di concorrenza di Scala/Akka a riscontrare tali problemi. Inoltre, in questo capitolo si nota come alcuni aspetti relativi al binomio riuso/concorrenza, tra cui il significato profondo dello stesso, non siano ancora stati adeguatamente affrontati dalla comunità informatica. Il terzo e ultimo capitolo esordisce con una panoramica dell'agent-oriented programming, prendendo il linguaggio simpAL come riferimento. In seguito, si prova ad estendere al caso degli agenti la nozione di riuso approfondita nei capitoli precedenti.
Resumo:
Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.
Resumo:
The role of the amount of Nb, used as a dopant for VPP, and how its presence may affect the generation of the active and selective δ-VOPO4 at the VPP surface under reaction conditions, was investigated, employing ex-situ and in-situ characterisation techniques. We found that Nb indeed may favour, under specific conditions, the generation of the desired δ-VOPO4 compound; however, its effect of enhancement of catalytic behaviour was not simply proportional to its concentration. In order to better understand how Nb may affect the generation of the active phase, we prepared V/Nb mixed phosphates; the formation of a solid solution was possible only under specific conditions, with a limited reciprocal dissolution of the two elements. We concluded that even though the incorporation of small amounts of Nb5+ in the VOPO4 (and also of V5+ in NbOPO4) cannot be excluded, a phenomenon which might favour the generation of the desired δ-VOPO4 compound, however the main role of Nb5+ was related to a modification of the redox properties of V4+ in the VPP, and specifically of the redox potential associated to the couple V4+/V5+. This led to a catalyst that during reaction was more oxidized than the corresponding undoped VPP, which under specific reaction conditions allowed obtain a better selectivity to MA. Oppositely, an excessive oxidation of VPP (catalysts having high [Nb]) affected negatively the MA selectivity, because of the excessive formation of COx. A preliminary study regarding the oxidehydration of 1-butanol into MA was carried out testing various catalysts: the best catalyst resulted VPP; however the MA selectivity was lower than that obtained from n-butane. With in-situ/operando Raman study of the Nb-doped and undoped catalysts we verified that the redox cycle involves the VPP and the δ-VOPO4 compounds, that the reoxidation step of V4+ in VPP is the rate-determining one.
Resumo:
Studio del componente di supporto del cavo utensile per taglio di materiali lapidei. Analisi delle applicazioni di leghe superelastiche e delle modalità di realizzazione del cavo utensile complessivo in relazione a specifiche esigenze poste a livello industriale.