650 resultados para base di Bernstein spazi di Chebyshev Bézier spazi generalizzati a tratti
Resumo:
Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.
Resumo:
La tesi riguarda le possibili connessioni tra la diffusione dei contratti di coltivazione(con disciplinari di coltivazione)e l'aumento della qualità del prodotto. Si basa su un indagine svolta intervistando con un questionario un campione di circa dieci aziende agricole. A tale proposito si cerca di capire quali aziende hanno sottoscritto dei contratti e, successivamente, si chiede agli intervistati un giudizio sulle prescrizioni contenute nei disciplinari di coltivazione. In base hai dati raccolti non si evidenziano aumenti sensibili della qualità connessi alla sottoscrizione di contratti di coltivazione.
Resumo:
Nel presente elaborato si è affrontato il tema dell’utilizzo di biogas per la produzione di energia elettrica e termica; in primo luogo è stata fatta una panoramica sulla diffusione degli impianti di digestione anaerobica in Europa e in Italia, con particolare attenzione alla logica degli incentivi volti alla promozione delle fonti rinnovabili. Il biogas presenta infatti il duplice vantaggio di inserirsi sia nell’ottica del “Pacchetto Clima-Energia” volto alla riduzione di consumi energetici da fonti fossili, sia nella migliore gestione dei rifiuti organici volta alla riduzione del conferimento in discarica. L’allineamento degli incentivi italiani con quelli europei, prevista dal Decreto Ministeriale 6 luglio 2012, presuppone un’espansione del settore biogas più oculata e meno speculativa di quella degli ultimi anni: inoltre la maggiore incentivazione all’utilizzo di rifiuti come materia prima per la produzione di biogas, comporta l’ulteriore vantaggio di utilizzare, per la produzione di energia e compost di qualità, materia organica che nel peggiore dei casi sarebbe inviata in discarica. Il progetto oggetto di studio nasce dalla necessità di trattare una quantità superiore di Frazione Organica di Rifiuti Solidi Urbani da R.D, a fronte di una riduzione drastica delle quantità di rifiuti indifferenziati conferiti ai siti integrati di trattamento di rifiuti non pericolosi. La modifica nella gestione integrata dei rifiuti prevista dal progetto comporta un aumento di efficienza del sito, con una drastica riduzione dei sovvalli conferiti a discariche terze, inoltre si ha una produzione di energia elettrica e termica annua in grado di soddisfare gli autoconsumi del sito e di generare un surplus di elettricità da cedere in rete. Nel contesto attuale è perciò conveniente predisporre nei siti integrati impianti per il trattamento della FORSU utilizzando le Migliori Tecniche Disponibili proposte dalle Linee Guida Italiane ed Europee, in modo tale da ottimizzare gli aspetti ambientali ed economici dell’impianto. Nell’elaborato sono stati affrontati poi gli iter autorizzativi necessari per le autorizzazioni all’esercizio ed alla costruzione degli impianti biogas: a seguito di una dettagliata disamina delle procedure necessarie, si è approfondito il tema del procedimento di Valutazione di Impatto Ambientale, con particolare attenzione alla fase di Studio di Impatto Ambientale. Inserendosi il digestore in progetto in un sito già esistente, era necessario che il volume del reattore fosse compatibile con l’area disponibile nel sito stesso; il dimensionamento di larga massima, che è stato svolto nel Quadro Progettuale, è stato necessario anche per confrontare le tipologie di digestori dry e wet. A parità di rifiuto trattato il processo wet richiede una maggiore quantità di fluidi di diluizione, che dovranno essere in seguito trattati, e di un volume del digestore superiore, che comporterà un maggiore dispendio energetico per il riscaldamento della biomassa all’interno. È risultata perciò motivata la scelta del digestore dry sia grazie al minore spazio occupato dal reattore, sia dal minor consumo energetico e minor volume di reflui da trattare. Nella parte finale dell’elaborato sono stati affrontati i temi ambientali,confrontando la configurazione del sito ante operam e post operam. È evidente che la netta riduzione di frazione indifferenziata di rifiuti, non totalmente bilanciata dall’aumento di FORSU, ha consentito una riduzione di traffico veicolare indotto molto elevato, dell’ordine di circa 15 mezzi pesanti al giorno, ciò ha comportato una riduzione di inquinanti emessi sul percorso più rilevante per l’anidride carbonica che per gli altri inquinanti. Successivamente è stata valutata, in modo molto conservativo, l’entità delle emissioni ai camini dell’impianto di cogenerazione. Essendo queste l’unico fattore di pressione sull’ambiente circostante, è stato valutato tramite un modello semplificato di dispersione gaussiana, che il loro contributo alla qualità dell’aria è generalmente una frazione modesta del valore degli SQA. Per gli ossidi di azoto è necessario un livello di attenzione superiore rispetto ad altri inquinanti, come il monossido di carbonio e le polveri sottili, in quanto i picchi di concentrazione sottovento possono raggiungere frazioni elevate (fino al 60%) del valore limite orario della qualità dell’aria, fissato dal D.Lgs 155/2010. Infine, con riferimento all’ energia elettrica producibile sono state valutate le emissioni che sarebbero generate sulla base delle prestazioni del parco elettrico nazionale: tali emissioni sono da considerare evitate in quanto l’energia prodotta nel sito in esame deriva da fonti rinnovabili e non da fonti convenzionali. In conclusione, completando il quadro di emissioni evitate e indotte dalla modifica dell’impianto, si deduce che l’impatto sull’ambiente non modificherà in maniera significativa le condizioni dell’aria nella zona, determinando una variazione percentuale rispetto agli inquinanti emessi a livello regionale inferiore all’1% per tutti gli inquinanti considerati (CO, PM10, NOX, NMCOV). Il vantaggio più significativo riguarda una riduzione di emissioni di CO2 dell’ordine delle migliaia di tonnellate all’anno; questo risultato è importante per la riduzione di emissione dei gas serra in atmosfera e risulta in accordo con la logica dell’utilizzo di biomasse per la produzione di energia. Dal presente elaborato si evince infine come l’utilizzo del biogas prodotto dalla digestione anaerobica della Frazione Organica dei Rifiuti Solidi Urbani non comporti solo un vantaggio dal punto di vista economico, grazie alla presenza degli incentivi nazionali, ma soprattutto dal punto di vista ambientale, grazie alla riduzione notevole dei gas serra in atmosfera, in accordo con gli obiettivi europei e mondiali, e grazie al recupero di rifiuti organici per la produzione di energia e compost di qualità.
Resumo:
Il citofluorimetro è uno strumento impiegato in biologia genetica per analizzare dei campioni cellulari: esso, analizza individualmente le cellule contenute in un campione ed estrae, per ciascuna cellula, una serie di proprietà fisiche, feature, che la descrivono. L’obiettivo di questo lavoro è mettere a punto una metodologia integrata che utilizzi tali informazioni modellando, automatizzando ed estendendo alcune procedure che vengono eseguite oggi manualmente dagli esperti del dominio nell’analisi di alcuni parametri dell’eiaculato. Questo richiede lo sviluppo di tecniche biochimiche per la marcatura delle cellule e tecniche informatiche per analizzare il dato. Il primo passo prevede la realizzazione di un classificatore che, sulla base delle feature delle cellule, classifichi e quindi consenta di isolare le cellule di interesse per un particolare esame. Il secondo prevede l'analisi delle cellule di interesse, estraendo delle feature aggregate che possono essere indicatrici di certe patologie. Il requisito è la generazione di un report esplicativo che illustri, nella maniera più opportuna, le conclusioni raggiunte e che possa fungere da sistema di supporto alle decisioni del medico/biologo.
Resumo:
L’obiettivo di questa tesi è stato lo svilippo di un convertitore di potenza per applicazioni di energy harvesting in grado di convogliare l’energia estratta da diversi tipi di trasduttori di grandezze ambientali in un unico dispositivo di storage, ad es. un condensatore, utilizzabile per alimentare circuiti a basso consumo. L’idea di base è stata quella di ottimizzare il trasferimento di energia, attraverso una rete logica in grado di gestire le priorità di conversione dalle diverse tipologie di sorgenti e grazie ad una implementazione di un algoritmo di Maximum Power Point Tracking. In base alle specifiche di progetto, in una prima fase è stata sviluppata la rete a livello funzionale, poi sono stati scelti i componenti più opportuni ed infine si è verificato il funzionamento attraverso simulazioni circuitali.
Resumo:
La tesi riguarda la creazione di una architettura che ha lo scopo di far interagire attivamente un utente con una mappa digitale tramite browser web e un applicativo che calcola dei percorsi in base ad un algoritmo di ottimizzazione. Un ambito interessante, attuale e che avrà, molto probabilmente, notevoli sviluppi futuri. Basti pensare per esempio a come le persone interagiscono con le mappe digitali tramite i famosi Google Maps o Google Earth, Bing Maps e OpenStreetMap. Questa interazione è diventata talmente naturale che è ormai intuitivo ruotare la rotellina del mouse per zoomare oppure tenere premuto il tasto sinistro per trascinare la mappa. Spesso questi applicativi web offrono servizi per il calcolo di percorsi, o rilasciano anche delle API per interagire e personalizzare alcuni aspetti, anche se spesso in modo limitato per questioni di copyright. In questo contesto entrano in gioco associazioni, singoli individui e fondazioni che creano software e standard fruibili da chiunque per creare applicativi e architetture personalizzate senza vincoli di diritti troppo limitanti. In questa tesi viene mostrato un approccio che permette una personalizzazione molto dettagliata e un'alta interoperabilità con queste applicazioni specifiche. Ma tutti questi aspetti positivi sono fruibili, per ora, solo mediante supporto umano avente un bagaglio di esperienze tecniche adeguate.
Resumo:
Questo lavoro di tesi ha riguardato lo studio della reazione di addizione coniugata enantioselettiva di idrossilammine N-Cbz-protette a nitroolefine, attraverso l’utilizzo di una serie di catalizzatori organici bi-funzionali in grado di attivare contemporaneamente la nucleofilicità dell’idrossilammina, per mezzo di una reazione acido-base, e il trans-β-nitrostirene, attraverso interazione via legame a idrogeno.
Resumo:
L’organocatalisi asimmetrica costituisce quella parte della chimica organica che è in grado di favorire con grande efficienza la formazione di prodotti enantiomericamente arricchiti, sfruttando l’azione di piccole molecole organiche per catalizzare reazioni chimiche. Questi catalizzatori organici non comprendendo la presenza di metalli, generalmente sono quindi atossici, stabili, facilmente disponibili e sintetizzabili. Nel corso del progetto presentato in questa tesi, è stato condotto uno studio sulla reazione di N-alchilazione enantioselettiva di alchilidenossindoli organocatalizzata. Le prove sono state principalmente incentrate sulla ricerca del catalizzatore adatto alla reazione, tentando di effettuare la reazione via base catalisi. Quest’approccio introduce un’importante vantaggio di carattere sintetico, effettuando un tipo di reazione che innanzitutto è raramente riportata in letteratura, e che, inoltre, non risulta essere mai stata effettuata in maniera enantioselettiva ed organocatalizzata. L’importanza sintetica dello scheletro derivante dagli ossindoli e le condizioni di reazione, costituiscono altri due valori aggiunti di questo progetto di ricerca.
Resumo:
Le reti di sensori non cablate producono una grande quantità di informazioni sotto forma di flusso continuo di dati, provenienti da una certa area fisica. Individualmente, ogni sensore è autonomo, dotato di batteria limitata e possiede una piccola antenna per la comunicazione; collettivamente, i sensori cooperano su un’ area più o meno vasta per far giungere i dati gene- rati ad un unità centrale. Poiché la sostituzione delle batterie è spesso un operazione troppo costosa o inattuabile, l’efficienza energetica è considerata una metrica prioritaria durante la progettazione delle reti di sensori non cablate. Si richiede non solo di ridurre le richieste energetiche di ogni singolo nodo, ma anche di massimizzare il tempo di vita dell’intera rete, considerando i costi di comunicazione tra sensori. Ciò ha portato allo studio di come rimuo- vere le inefficienze energetiche sotto ogni aspetto: dalla piattaforma hardware, al software di base, ai protocolli di comunicazione al software applicativo. Nella tesi è illustrata una tecnica per il risparmio energetico che consiste nell’applicare memorie fisiche ad alcuni nodi della rete, in modo da accumulare in esse porzioni dei dati ge- nerati; successivamente le informazioni possono essere recuperate dall’unità centrale tramite interrogazioni. Questo permette di ridurre il numero di dati trasmessi, e conseguentemente diminuire l’assorbimento energetico della rete. Scopo della presente tesi è individuare algo- ritmi per determinare la disposizione ottima delle memorie tra i nodi.
Resumo:
Scopo della tesi è la realizzazione di una carta della vegetazione su base fisionomica del SIC “IT4080008 Balze di Verghereto, Monte Fumaiolo, Ripa della Moia” (Provincia di Forlì-Cesena). Tale area, di rilevante interesse naturalistico, è stata fino ad ora scarsamente indagata dal punto di vista vegetazionale. La carta della vegetazione è stata ottenuta mediante interpretazione a video delle Ortofoto AGEA 2008 digitali e successiva restituzione cartografica con il software ArcGIS 9.3. Per la delimitazione delle abieti-faggete sono state utilizzate anche le immagini ad infrarosso del medesimo volo. I poligoni ottenuti dall’interpretazione sono stati verificati a terra mediante opportuni sopralluoghi. Sono stati inoltre eseguiti campionamenti mediante la tecnica del transetto per valutare le dinamiche della vegetazione con particolare riguardo al margine boscoprato/ pascolo, le tipologie più diffuse nel SIC. I dati raccolti hanno riguardato l’identificazione e la localizzazione degli individui nel transetto, l’altezza, il diametro, l’estensione della chioma e la determinazione dell’età per le specie arboree. L’elaborazione dei transetti è accompagnata da una restituzione grafica con il posizionamento delle diverse specie, delle loro altezze e dell’estensione delle chiome, consentendo l’effettuazione di ulteriori considerazioni sulle aree indagate. Di particolare interesse è l’acquisizione dei dati relativi alla rinnovazione di Fagus sylvatica e Quercus cerris,le specie che danno la fisionomia alle principali formazioni forestali del SIC. La definizione della carta fisionomica rappresenta un documento di base indispensabile per una successiva elaborazione di una carta della vegetazione su base fitosociologica, mentre l’analisi sui transetti ha evidenziato come i fenomeni evolutivi della vegetazione siano diffusi, seppur con modalità e gradi diversi.
Resumo:
I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.
Resumo:
La carbamazepina fu commercializzata a partire dagli anni Sessanta; è un analgesico anticonvulsivante e specifico per la nevralgia del trigemino ed è uno dei principali farmaci usati nel trattamento dell’epilessia. La sua azione più nota a livello del sistema nervoso è quella di rallentare il recupero dei canali al sodio, sebbene abbia anche effetti metabolici importanti interferendo con il ciclo degli inositoli e con la GSK-3 (glicogeno sintasi-chinasi 3). Tale sostanza è sotto la lente d’ingrandimento sia per le sue caratteristiche chimico-fisiche (vedi la sua alta persistenza in ambiente) sia per la sua alta tossicità per la salute umana. Le sue proprietà terapeutiche spesso sono accompagnate da effetti collaterali sia nei pazienti che assumono direttamente il medicinale, sia negli organismi non-bersaglio che vengono a contatto con i residui ed i metaboliti del farmaco in ambiente. Le principali fonti di contaminazione dell’ambiente sono rappresentate dagli scarichi domestici, urbani, ospedalieri ed industriali e dagli effluenti di impianti di depurazione. Inoltre, l’uso irriguo di acque contenenti residui del farmaco oppure fenomeni di esondazione di corpi idrici contaminati contribuiscono ampiamente alla distribuzione di questo composto nei suoli. La matrice suolo ha avuto relativamente poca attenzione per quanto riguarda gli effetti dell’inquinamento sugli organismi in generale, ed in particolare non vi sono studi sui farmaci. Il presupposto di questo studio dunque è stato quello di mettere a punto una metodologia volta a valutare gli effetti all’esposizione del farmaco carbamazepina su organismi bioindicatori, i lombrichi della specie Eisenia andrei. Il seguente progetto è durato da Maggio 2012 a Febbraio 2013, periodo in cui sono stati effettuati saggi sub cronici per valutare l’effetto di suoli sperimentalmente contaminati con il farmaco sui parametri del ciclo vitale del lombrico (accrescimento, mortalità e riproduzione) e su una serie di biomarker cellulari (neutral red retention assay, accumulo lisosomiale di lipofuscine, accumulo lisosomiale di lipidi neutri insaturi, attività dell’enzima acetilcolinsterasi, attività dell’enzima catalasi, attività dell’ enzima glutatione-S-transferasi e concentrazione di malondialdeide). I risultati ottenuti mostrano che la carbamazepina non ha effetti sui parametri del ciclo vitale. Per quanto riguarda i parametri fisiologici si notano tuttavia dei risultati diversi. L’accumulo lisosomiale di lipofuscine e lipidi neutri indica che il metabolismo dei vermi risulta in qualche modo alterato dall’esposizione alla carbamazepina alle concentrazioni saggiate. Queste alterazioni potrebbero essere spiegate da un effetto di tipo ossidante; infatti i due biomarker oltre a rappresentare un segnale di alterazione metabolica rappresentano anche un indicazione di perossidazione lipidica. Queste osservazioni meritano di essere approfondite studiando il bioaccumulo e la degradazione della carbamazepina nei suoli, che potrebbero essere alla base della diversità di risultati rispetto alla tossicità evidenziata negli organismi acquatici. A fronte della consapevolezza dei rischi potenziali dovuti alla presenza di farmaci nelle acque e nel suolo, molto resta da fare per ampliare le conoscenze su questa tipologia di contaminazione, in particolare nei campi del monitoraggio e del comportamento ambientale, degli studi ecotossicologici e delle procedure e tecnologie idonee a limitare la loro immissione nell’ambiente.
Resumo:
La nanotecnologia è una scienza innovativa che sviluppa e utilizza materiali di dimensioni nanometriche (< 100 nm). Lo sviluppo e il mercato delle nanoparticelle in merito alle loro interessanti proprietà chimico‐fisiche, é accompagnato da una scarsa conoscenza relativa al destino finale e agli effetti che questi nano materiali provocano nell’ ambiente [Handy et al., 2008]. La metodologia LCA (Life Cycle Assessment – Valutazione del Ciclo di Vita) è riconosciuta come lo strumento ideale per valutare e gestire gli impatti ambientali indotti dalle ENPs, nonostante non sia ancora possibile definire, in maniera precisa, un Fattore di Caratterizzazione CF per questa categoria di sostanze. Il lavoro di questa tesi ha l’obbiettivo di stimare il Fattore di Effetto EF per nanoparticelle di Diossido di Titanio (n‐TiO2) e quindi contribuire al calcolo del CF; seguendo il modello di caratterizzazione USEtox, l’EF viene calcolato sulla base dei valori di EC50 o LC50 relativi agli organismi appartenenti ai tre livelli trofici di un ecosistema acquatico (alghe, crostacei, pesci) e assume valore pari a 49,11 PAF m3/Kg. I valori tossicologici utilizzati per il calcolo del Fattore di Effetto derivano sia da un’accurata ricerca bibliografica sia dai risultati ottenuti dai saggi d’inibizione condotti con n‐TiO2 sulla specie algale Pseudokirchneriella Subcapitata. La lettura dei saggi è stata svolta applicando tre differenti metodi quali la conta cellulare al microscopio ottico (media geometrica EC50: 2,09 mg/L, (I.C.95% 1,45‐ 2,99)), l’assorbanza allo spettrofotometro (strumento non adatto alla lettura di test condotti con ENPs) e l’intensità di fluorescenza allo spettrofluorimetro (media geometrica EC50: 3,67 mg/L (I.C.95% 2,16‐6,24)), in modo tale da confrontare i risultati e valutare quale sia lo strumento più consono allo studio di saggi condotti con n‐TiO2. Nonostante la grande variabilità dei valori tossicologici e la scarsa conoscenza sui meccanismi di tossicità delle ENPs sulle specie algali, il lavoro sperimentale e la ricerca bibliografica condotta, hanno permesso di individuare alcune proprietà chimico‐fisiche delle nanoparticelle di Diossido di Titanio che sembrano essere rilevanti per la loro tossicità come la fase cristallina, le dimensioni e la foto attivazione [Vevers et al., 2008; Reeves et al., 2007]. Il lavoro sperimentale ha inoltre permesso di ampliare l’insieme di valori di EC50 finora disponibile in letteratura e di affiancare un progetto di ricerca dottorale utilizzando il Fattore di Effetto per n‐ TiO2 nel calcolo del Fattore di Caratterizzazione.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.