908 resultados para grado di Brouwer grado di Leray-Schauder


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la valididi questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’attenta analisi della letteratura scientifica su argomenti riguardanti i contaminanti ambientali oggetto di studio (i policlorodifenili) ha permesso di raccogliere dati utili riguardanti le proprietà di queste molecole, la loro diffusione e la loro pericolosità. Oggetto della ricerca è stato lo studio in vitro del potenziale citotossico e trasformante dei PCB, utilizzando come riferimento una miscela commerciale di PCB, l’Aroclor 1260, e di un MIX di 18 congeneri ricostituito in laboratorio. Il lavoro è proseguito con la valutazione degli effetti di queste miscele e di due congeneri singoli (PCB 118 e PCB 153) su linee cellulari diverse in test di vitalità a breve termine. L’utilizzo di test specifici ha poi permesso la valutazione di un possibile potenziale estrogenico. Una volta ottenuto un quadro generale sui possibili effetti delle miscele grazie ai risultati dei test funzionali, è stata valutata la modulazione, da parte delle molecole e/o di miscele delle stesse, dell’espressione di geni coinvolti nella risposta ad estrogeni o a composti diossino simili, andando ad effettuare un’analisi di tipo molecolare con Real-Time PCR (RT-PCR) e analizzando nello specifico marcatori di pathway dell’Aryl Hydrocarbon Receptor (AhR) o dell’Estrogen Receptor (ER). In ultima analisi al fine di verificare l’applicabilità di biomarkers di espressione a situazioni di contaminazioni reali, ci si è focalizzati su campioni estratti da matrici ambientali, ed in particolare linee cellulari di interesse sono state esposte a estratti di sedimenti provenienti da siti inquinati. L’approccio scelto è stato di tipo molecolare, con lo scopo di individuare pathway da valutare in un secondo momento in test funzionali specifici. L’attività di ricerca si è avvalsa della tecnica del DNA-microarray per valutare la modulazione dell’espressione genica in risposta all’esposizione a contaminanti ambientali. In questo modo è possibile definire i profili di espressione genica che sottendono a risposte biologiche complesse nell’intento di individuare biomarcatori in grado di predire il rischio per l’uomo, e di consentire la stima di una relazione diretta tra esposizione ed effetti possibili.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesi si colloca nell'ambito del Cloud Computing, un modello in grado di abilitare l’accesso in rete in maniera condivisa, pratica e on-demand, di diverse risorse computazionali, come potenza di calcolo o memoria di massa. Questo lavoro ha come scopo la realizzazione di una Cloud privata, per la fornitura di servizi, basata su un’architettura P2P. L’elaborato vuole studiare il caso di un sistema P2P di livello infrastruttura (IaaS) e propone la realizzazione di un prototipo capace di sostenere un insime basilare di API. Verranno utilizzati protocolli di gossip per la costruzione dei servizi fondamentali.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Listeria monocytogenes è un batterio patogeno responsabile di una malattia potenzialmente molto grave per l’uomo. L’infezione avviene soprattutto tramite l’ingestione di alimenti di origine animale contaminati, e può propagarsi per via transplacentare al feto. Il potenziale patogeno di L. monocytogenes è dovuto soprattutto a caratteristici fattori di virulenza con i quali alcuni ceppi sono in grado di attaccare la cellula dell’organismo ospite potendo aderire, invadere, moltiplicare e propagare alle cellule adiacenti. Il presente studio è rivolto al rilevamento tramite reazione polimerasica a catena (PCR) di alcuni fattori di virulenza di ceppi di L. monocytogenes isolati da campioni prelevati presso macelli suini, mediante l’identificazione dei geni responsabili della sintesi delle proteine di superficie che intervengono nel processo patogenetico, allo scopo di valutare la potenziale pericolosità di quelli isolati sia sulle carcasse, sia dal contenuto intestinale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introduzione La diagnosi di HCC con le tecniche di immagine ed in particolare con CEUS su fegato cirrotico secondo le ultime linee guida prevede un comportamento contrastografico di ipervascolarizzazione nella fase arteriosa e wash-out nella fase tardiva. CEUS è ormai una metodica accettata per la diagnosi ma il wash out nella fase tardiva presenta notevoli difficoltà nel determinare il comportamento contrastografico in quanto valutato soggettivamente su display, infatti il giudizio di tale fase dipende molto dall’operatore e non è rarissimo che nascono discordanza tra operatori anche per piccole differenze. Recentemente è stato proposto un nuovo software(SonoLiver, Bracco, Italy) in grado di quantificare la perfusione delle lesione durante CEUS. Pertanto lo scopo di questo studio pilota è quello di valutare l’impatto di SonoLiver nel rilevare caratteristiche contrastografiche tipiche dell’HCC e valutare la riproducibilità tra due operatori. Pazienti e metodi: Sono stati presi in considerazione 20 noduli (di dimensioni tra 12-95 mm) con diagnosi di HCC in 20 pazienti con cirrosi . La CEUS è stata valutata dapprima ad occhio nudo su display e successivamente con le curve ottenute con DVP da parte di due operatori diversi in cieco, dopo un periodo di formazione adeguata. Sono state quindi analizzate le performance di ciascuna metodica sia in termini di variabilità tra i due operatori che la variabilità tra CEUS ad occhio nudo e CEUS con SonoLiver dello stesso operatore. Risultati:Operatore 1 ha rilevato ipervascolarizzazione in fase arteriosa in 17 su 20 pazienti con valutazione ad occhio nudo su schermo e su 19/20 con le curve ottenute con DVP (+10% sensibilità) mentre operatore 2 ha rilevato ipervascolarizzazione in fase arteriosa19/20 pazienti sia con valutazione ad occhio nudo che con le curve DVP. Nella fase tardiva il wash-out è stato rilevato in 7/20 ad occhio nudo e 10/20 pazienti con le curve DVP (sensibilità aumenta da 35% a 50%) mentre operatore 2 ha rilevato rispettivamente 8/20 e 11/20 (sensibilità aumenta da 40% a 55%). La riproducibilità tra i due operatori rimane invariata con la valutazione di Sonoliver sia nella fase arteriosa che nella fase tardiva. Conclusione:La quantificazione perfusionale con SonoLiver sembra essere uno strumento promettente nella diagnosi di HCC su fegato cirrotico, aumentando aspetti tipici contrastografici.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’idrogeno è un elemento di elevato interesse economico, con una produzione industriale che supera i 55 x 1010 m3/anno e notevoli prospettive di sviluppo delle sue applicazioni. Attualmente l’idrogeno è prodotto principalmente in impianti di larga scala (circa 1000 m3/h) da combustibili fossili attraverso processi di steam reforming ed ossidazione parziale catalitica. Per aumentare la produzione di idrogeno un ruolo fondamentale è svolto dalla reazione di water gas shift (WGS) che abbatte il contenuto di CO, massimizzando la produzione di idrogeno. La reazione è condotta industrialmente in due stadi, operanti ad alta temperatura (HTS, circa 350 °C) e bassa temperatura (LTS, circa 250 °C), utilizzando rispettivamente catalizzatori a base di ferro o rame. Tuttavia, è evidente l’interesse per nuove formulazioni in grado di operare in un unico stadio a temperatura intermedia (MTS), mantenendo le caratteristiche ottimali di attività e stabilità. In questo lavoro di tesi, condotto in collaborazione con AIR LIQUIDE (F), è stato affrontato uno studio della reazione di WGS finalizzato allo sviluppo di nuove formulazioni attive e stabili nell’MTS. In particolare, sono stati sintetizzati precursori idrotalcitici Cu/Zn/Al (contenenti carbonati o silicati), con bassi contenuti di rame (diversamente da quanto riportato in letteratura), modulandone le proprietà chimico-fisiche, l’attività catalitica e la stabilità con il tempo di reazione. Si è osservato come i catalizzatori con minori contenuti di rame ed ottenuti da precursori contenenti carbonati mostrassero un’elevata attività e selettività nell’MTS, raggiungendo valori di conversione del CO analoghi a quelli all’equilibrio termodinamico già a 300 °C, indipendentemente dai valori del rapporto S/DG e del tempo di contatto. Tutti i catalizzatori mostrano un’elevata stabilità con il tempo di reazione, con incrementi del quantitativo del CO in uscita dopo 100h di circa lo 0,7 % v/v. I catalizzatori scaricati dopo le prove catalitiche evidenziano gli effetti dei processi di sinterizzazione (diminuzione dell’area superficiale ed incremento delle dimensioni dei cristalliti), la cui entità diminuisce al diminuire del contenuto di rame. Infine, confrontando l’attività dei migliori catalizzatori preparati in questo lavoro di tesi con quella di uno dei più utilizzati catalizzatori commerciali per la reazione di WGS a bassa temperatura, si sono osservati valori di attività analoghi, raggiungendo quelli di equilibrio per temperature  300°C, ma con una attività significativamente superiore nelle condizioni LTS, soprattutto considerando il valore del tempo di contatto inferiore a quelli comunemente utilizzati negli impianti industriali.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La trasformazione di glicerolo ad acido acrilico può essere un fattore importante per la valorizzazione del processo di produzione di biodiesel, il quale prevede la coproduzione di enormi quantità di glicerolo. La sintesi di acido acrilico in un unico step è stata studiata attraverso vari catalizzatori solidi bifunzionali di diversa natura, contenenti proprietà acide e redox. I catalizzatori devono avere un’adeguata acididi Brønsted per promuovere la trasformazione di glicerolo ad acroleina, mentre le proprietà ossidanti, necessarie per la sintesi di acido acrilico sono ottenute mediante l’inserimento di un metallo ossidante nella struttura. Si vuole quindi sintetizzare e testare una serie di catalizzatori che mostrino questa bifunzionalità in grado di soddisfare requisiti di attività e selettività nei confronti della reazioni . Per questo studio sono stati sintetizzati e caratterizzati ossidi misti di W/V, nella forma di aggregati dispersi sulla titania ed ossidi misti di Zr/Nb/V in struttura bulk. Sono stati quindi eseguiti dei test di reattività in fase gas ed in presenza di ossigeno utilizzando un reattore tubolare in quarzo a letto fisso.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I policlorobifenili (PCB) sono inquinanti tossici e fortemente recalcitranti che contaminano suoli e sedimenti di acqua dolce e marini. Le tecnologie attualmente impiegate per la loro rimozione (dragaggio e trattamento chimoco-fisico o conferimento in discarica) sono molto costose, poco efficaci o ad alto impatto ambientale. L’individuazione di strategie alternative, di natura biologica, consentirebbe lo sviluppo di un processo alternativo più sostenibile. Nel processo di declorurazione riduttiva i congeneri di PCB a più alto grado di clorurazione, che sono i più tossici, recalcitranti e maggiormente tendenti al bioaccumulo, vengono utilizzati da alcuni microrganismi anaerobici come accettori finali di elettroni nella catena respiratoria e bioconvertiti in congeneri a minor grado di clorurazione, meno pericolosi, che possono essere mineralizzati da parte di batteri aerobi. La declorurazione riduttiva dei PCB è stata spesso studiata in colture anaerobiche di arricchimento in terreno minerale ottenute a partire da sedimenti di acqua dolce; questi studi hanno permesso di dimostrare che batteri del phylum dei Chloroflexi e appartenenti al genere Dehalococcoides o filogeneticamente facenti parte del gruppo dei Dehalococcoides-like sono i decloruranti. Sono tuttavia scarse le informazioni riguardanti l'occorrenza della declorurazione dei PCB in ambienti marini, nei quali l'alta salinità e concentrazione di solfati influenzano diversamente l'evoluzione delle popolazioni microbiche. In sedimenti contaminati della laguna di Venezia è stata osservata declorurazione sia dei PCB preesistenti che di congeneri esogeni; questi studi hanno permesso l'ottenimento di colture di arricchimento fortemente attive nei confronti di 5 congeneri di PCB coplanari. In questa tesi, a partire dalle colture capaci di declorurare i PCB coplanari, sono stati allestiti nuovi passaggi di arricchimento su Aroclor®1254, una miscela di PCB più complessa e che meglio rappresenta la contaminazione ambientale. Le colture sono state allestite come microcosmi anaerobici in fase slurry, preparati risospendendo il sedimento nell'acqua superficiale, ricreando in tal modo in laboratorio le stesse condizioni biogeochimiche presenti in situ; gli slurry sterili sono stati inoculati per avviare le colture. Per favorire la crescita dei microrganismi decloruranti e stimolare così la decloruraazione dei PCB sono stati aggiunti inibitori selettivi di metanogeni (Bromoetansulfonato o BES) e solfato-riduttori (molibdato), sono state fornite fonti di carbonio ed energia (eD), quali acidi grassi a corta catena e idrogeno, utilizzate di batteri decloruranti noti, e per semplificare la comunità microbica sono stati aggiunti antibiotici cui batteri decloruranti del genere Dehalococcoides sono resistenti. Con questo approccio sono stati allestiti passaggi di arricchimento successivi e le popolazioni microbiche delle colture sono state caratterizzate con analisi molecolari di fingerprinting (DGGE). Fin dal primo passaggio di arricchimento nei microcosmi non ammendati ha avuto luogo un'estesa declorurazione dell'Aroclor®1254; nei successivi passaggi si è notato un incremento della velocità del processo e la scomparsa della fase di latenza, mentre la stessa stereoselettività è stata mantenuta a riprova dell’arricchimento degli stessi microrganismi decloruranti. Le velocità di declorurazione ottenute sono molto alte se confrontate con quelle osservate in colture anaerobiche addizionate della stessa miscela descritte in letteratura. L'aggiunta di BES o molibdato ha bloccato la declorurazione dei PCB ma in presenza di BES è stata riscontrata attività dealogenante nei confronti di questa molecola. La supplementazione di fonti di energia e di carbonio ha stimolato la metanogenesi e i processi fermentativi ma non ha avuto effetti sulla declorurazione. Ampicillina e vancomicina hanno incrementato la velocità di declorurazione quando aggiunte singolarmente, insieme o in combinazione con eD. E' stato però anche dimostrato che la declorurazione dei PCB è indipendente sia dalla metanogenesi che dalla solfato-riduzione. Queste attività respiratorie hanno avuto velocità ed estensioni diverse in presenza della medesima attività declorurante; in particolare la metanogenesi è stata rilevata solo in dipendenza dall’aggiunta di eD alle colture e la solfato-riduzione è stata inibita dall’ampicillina in microcosmi nei quali un’estesa declorurazione dei PCB è stata osservata. La caratterizzazione delle popolazioni microbiche, condotte mediante analisi molecolari di fingerprinting (DGGE) hanno permesso di descrivere le popolazioni batteriche delle diverse colture come complesse comunità microbiche e di rilevare in tutte le colture decloruranti la presenza di una banda che l’analisi filogenetica ha ascritto al batterio m-1, un noto batterio declorurante in grado di dealogenare un congenere di PCB in colture di arricchimento ottenute da sedimenti marini appartenente al gruppo dei Dehalococcoides-like. Per verificare se la crescita di questo microrganismo sia legata alla presenza dei PCB, l'ultimo passaggio di arricchimento ha previsto l’allestimento di microcosmi addizionati di Aroclor®1254 e altri analoghi privi di PCB. Il batterio m-1 è stato rilevato in tutti i microcosmi addizionati di PCB ma non è mai stato rilevato in quelli in cui i PCB non erano presenti; la presenza di nessun altro batterio né alcun archebatterio è subordinata all’aggiunta dei PCB. E in questo modo stato dimostrato che la presenza di m-1 è dipendente dai PCB e si ritiene quindi che m-1 sia il declorurante in grado di crescere utilizzando i PCB come accettori di elettroni nella catena respiratoria anche in condizioni biogeochimiche tipiche degli habitat marini. In tutte le colture dell'ultimo passaggio di arricchimento è stata anche condotta una reazione di PCR mirata alla rilevazione di geni per dealogenasi riduttive, l’enzima chiave coinvolto nei processi di dealogenazione. E’ stato ottenuto un amplicone di lughezza analoga a quelle di tutte le dealogenasi note in tutte le colture decloruranti ma un tale amplificato non è mai stato ottenuto da colture non addizionate di PCB. La dealogenasi ha lo stesso comportamento di m-1, essendo stata trovata come questo sempre e solo in presenza di PCB e di declorurazione riduttiva. La sequenza di questa dealogenasi è diversa da tutte quelle note sia in termini di sequenza nucleotidica che aminoacidica, pur presentando due ORF con le stesse caratteristiche e domini presenti nelle dealogenasi note. Poiché la presenza della dealogenasi rilevata nelle colture dipende esclusivamente dall’aggiunta di PCB e dall’osservazione della declorurazione riduttiva e considerato che gran parte delle differenze genetiche è concentrata nella parte di sequenza che si pensa determini la specificità di substrato, si ritiene che la dealogenasi identificata sia specifica per i PCB. La ricerca è stata condotta in microcosmi che hanno ricreato fedelmente le condizioni biogeochimiche presenti in situ e ha quindi permesso di rendere conto del reale potenziale declorurante della microflora indigena dei sedimenti della laguna di Venezia. Le analisi molecolari condotte hanno permesso di identificare per la prima volta un batterio responsabile della declorurazione dei PCB in sedimenti marini (il batterio m-1) e una nuova dealogenasi specifica per PCB. L'identificazione del microrganismo declorurante permette di aprire la strada allo sviluppo di tecnologie di bioremediation mirata e il gene della dealogenasi potrà essere utilizzato come marker molecolare per determinare il reale potenziale di declorurazione di miscele complesse di PCB in sedimenti marini.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Al giorno d’oggi è sempre maggiore la richiesta di sistemi software affidabili, in grado cioè di adempiere alle proprie funzioni nel modo corretto anche qualora si dovessero verificare dei problemi interni o esterni al sistema. I sistemi informatici complessi sono sempre più chiamati a svolgere compiti altamente critici, che coinvolgono la sicurezza e l’incolumità delle persone. Si pensi per esempio ai sistemi di controllo di aerei, delle centrali nucleari, dei sistemi ferroviari o anche solo ai sistemi di transazioni monetarie. É importante per questi sistemi adottare tecniche in grado di mantenere il sistema in uno stato correttamente funzionante ed evitare che la fornitura del servizio possa essere interrotta dal verificarsi di errori. Tali tecniche possono essere implementate sia a livello hardware che a livello software. È tuttavia interessante notare la differenza che intercorre tra i due livelli: l’hardware può danneggiarsi e quindi la semplice ridondanza dei componenti è in grado di far fronte ad un eventuale malfunzionamento di uno di questi. Il software invece non può rompersi e quindi la semplice ridondanza dei moduli software non farebbe altro che replicare il problema. Il livello software necessita dunque di tecniche di tolleranza ai guasti basate su un qualche tipo di diversità nella realizzazione della ridondanza. Lo scopo di questa tesi è appunto quello di approfondire le varie tipologie di diversità utilizzabili a livello software e il funzionamento delle tecniche appartenenti a queste tipologie.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La terra, nel corso della sua storia, ha subito molteplici cambiamenti con la comparsa e scomparsa di numerose specie animali e vegetali. Attualmente, l’estinzioni delle specie, la riduzione degli areali e il depauperamento degli ecosistemi è da ricollegare alle attività dell’uomo. Per tali motivi, in questi ultimi decenni si è iniziato a dare importanza alla conservazione della biodiversità, alla creazione di zone protette e a sviluppare interventi di reintroduzione e rafforzamento di specie rare e a rischio di estinzione. Questo lavoro di tesi si propone di analizzare la variabilità genetica delle popolazioni di Rhododendron ferrugineum L. lungo il suo areale, con particolare attenzione alle aree marginali dell’Appennino, dove la specie rappresenta un caso di pseudo rarità, al fine di valutare lo stato di salute della specie al limite del suo areale e valutare appropriati interventi di conservazione o reintroduzione. Per effettuare le analisi sono stati messi a punto dei marcatori molecolari discontinui, i microsatelliti, che, essendo dei marcatori co-dominati, permettono di valutare differenti parametri legati alla diversità genetica delle popolazioni inclusi i livelli di eterozigotà ed il flusso genico tra popolazioni limitrofe. I campionamenti sono stati effettuati nelle uniche 3 stazioni presenti sugli Appennini. Al fine di confrontare la struttura genetica di queste popolazioni sono state considerate anche popolazioni delle Alpi Marittime, delle Alpi centro-orientali e dei Pirenei. L’analisi della diversità genetica effettuata su questo pool di popolazioni analizzate con 7 marcatori microsatelliti, ha messo in evidenza che le popolazioni relitte dell’Appennino Tosco-Emiliano presentano un ridotto livello di eterozigosità che suggerisce quindi un elevato livello di inbreeding. Si ritiene che ciò sia dovuto alla loro dislocazione sul territorio, che le rende isolate sia tra di loro che dalle popolazioni delle vicine Alpi Marittime. La stima delle relazioni genetiche tra le popolazioni appenniniche e le vicine piante alpine evidenzia come non vi sia scambio genetico tra le popolazioni. Le analisi dei cluster suggeriscono che due delle popolazioni Appenniniche siano più simili alle popolazioni della Alpi Marittime, mentre la terza ha più affinità con le popolazioni delle Alpi centro-orientali. Le popolazioni dei Pirenei risultano essere geneticamente più simili alle popolazioni delle Alpi Marittime, in particolare alle tre popolazioni del versante francese. In questo lavoro abbiamo affrontato anche il problema delle specie ibride. Rhododendron x intermedium Tausch è un ibrido frutto dell’incrocio tra Rhododendron ferrugineum L. e Rhododendron hirsutum L., in grado di incrociarsi sia con altri ibridi, sia con i parentali (fenomeno dell’introgressione). L’origine di questo ibrido risiede nella simpatria delle due specie parentali, che tuttavia, presentano esigenze ecologiche differenti. Ad oggi la presenza di Rhododendron x intermedium è stata accertata in almeno tre stazioni sulle Alpi Italiane, ma la letteratura documenta la sua presenza anche in altre zone dell’Arco Alpino. L’obiettivo di questa ricerca è stato quello di verificare la reale natura ibrida di Rhododendron x intermedium in queste stazioni utilizzando un approccio integrato ossia sia attraverso un’analisi di tipo morfologico sia attraverso un analisi di tipo molecolare. In particolare l’approccio molecolare ha previsto prima un’analisi filogenetica attraverso l’utilizzo di marcatori molecolari filogenetici nucleari e plastidiali (ITS, At103, psbA-trnH e matK) e quindi un’analisi della struttura delle popolazioni della specie ibrida attraverso l’utilizzo di marcatori molecolari microsatelliti. Da un’analisi morfologica, risulta che gli esemplari ibridi possono essere molto differenti tra loro e ciò supporta la formazione di sciami ibridi. Al fine di verificare la natura di questa specie e la struttura delle popolazioni ibride e dei rispettivi parentali, sono state campionate differenti popolazioni in tutta l’area di interesse. I campioni ottenuti sono stati quindi analizzati geneticamente mediante marcatori molecolari del DNA. I risultati ottenuti hanno permesso innanzitutto di confermare l’origine ibrida degli individui di prima generazione della specie Rhododendron x intermedium e quindi di distinguere i parentali dagli ibridi ed evidenziare la struttura genetica delle popolazioni ibride.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La frenetica evoluzione sociale e culturale, data dal crescente e continuo bisogno di conoscenza dell’uomo, ha portato oggi a navigare in un oceano sconfinato di dati e informazioni. Esse assumono una propria peculiare importanza, un valore sia dal punto di vista del singolo individuo, sia all’interno di un contesto sociale e di un settore di riferimento specifico e concreto. La conseguente mutazione dell’interazione e della comunicazione a livello economico della società, ha portato a parlare oggi di economia dell’informazione. In un contesto in cui l’informazione rappresenta la risorsa principale per l’attività di crescita e sviluppo economico, è fondamentale possedere la più adeguata strategia organizzativa per la gestione dei dati grezzi. Questo per permetterne un’efficiente memorizzazione, recupero e manipolazione in grado di aumentare il valore dell’organizzazione che ne fa uso. Un’informazione incompleta o non accurata può portare a valutazioni errate o non ottimali. Ecco quindi la necessità di gestire i dati secondo specifici criteri al fine di creare un proprio vantaggio competitivo. La presente rassegna ha lo scopo di analizzare le tecniche di ottimizzazione di accesso alle basi di dati. La loro efficiente implementazione è di fondamentale importanza per il supporto e il corretto funzionamento delle applicazioni che ne fanno uso: devono garantire un comportamento performante in termini di velocità, precisione e accuratezza delle informazioni elaborate. L’attenzione si focalizzerà sulle strutture d’indicizzazione di tipo gerarchico: gli alberi di ricerca. Verranno descritti sia gli alberi su dati ad una dimensione, sia quelli utilizzati nel contesto di ricerche multi dimensionali (come, ad esempio, punti in uno spazio). L’ingente sforzo per implementare strutture di questo tipo ha portato gli sviluppatori a sfruttare i principi di ereditarietà e astrazione della programmazione ad oggetti al fine di ideare un albero generalizzato che inglobasse in sé tutte le principali caratteristiche e funzioni di una struttura di indicizzazione gerarchica, così da aumentarne la riusabilità per i più particolari utilizzi. Da qui la presentazione della struttura GiST: Generalized Search Tree. Concluderà una valutazione dei metodi d’accesso esposti nella dissertazione con un riepilogo dei principali dati relativi ai costi computazionali, vantaggi e svantaggi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Gli smartphone, sono dispositivi per la telefonia mobile che oramai includono una serie di funzionalità a supporto della multimedialità e non solo. Divenuti quasi dei notebook in miniatura, ne esistono di vari tipi e dimensioni e anche se la loro potenza di calcolo rimane di gran lunga inferiore a quella di un PC, riescono comunque a effettuare operazioni abbastanza evolute e con prestazioni accettabili. Quello che si vuole realizzare con questo lavoro non è uno studio su questi dispositivi (anche se in parte sarà affrontato), ma un approfondimento sulla possibilità di utilizzare una buona fetta di essi, a supporto dello sviluppo turistico nel nostro paese. In particolare si vuole realizzare una piattaforma mobile che metta in comunicazione individui che vogliono fornire informazione di tipo turistico (beni culturali, eventi, attività commerciali, ecc.) con individui che vogliono fruire di tali contenuti (un qualsiasi turista che sia in grado di utilizzare uno smartphone). Tale applicazione dovrà raccogliere informazioni su una determinata città e riuscire in maniera chiara e intuitiva a dare risposte alle principali domande che un turista si pone: • dove sono? • Cosa c’è d’interessante da visitare nei dintorni? • Interessante questa statua! Di cosa si tratta? • Quali sono gli eventi più interessanti ai quali potrei partecipare? • Ho un leggero appetito dove posso andare a mangiare? • Dove posso fare un po’ di shopping?

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il carcinoma epatocellulare (HCC) è il più frequente tumore maligno del fegato e rappresenta il sesto tipo di tumore più comune nel mondo. Spesso i pazienti con HCC vengono diagnosticati a stadi piuttosto avanzati, quando le uniche opzioni terapeutiche in grado di migliorarne la sopravvivenza sono la chemoembolizzazione dell'arteria epatica ed il trattamento con l'inibitore multi-cinasico, Sorafenib. In questo contesto, la scoperta del ruolo centrale dei microRNA (miRNA) nella tumorigenesi umana risulta di fondamentale importanza per lo sviluppo di nuovi marcatori diagnostici e bersagli terapeutici. I microRNA (miRNA) sono delle piccole molecole di RNA non codificante, della lunghezza di 19-22 nucleotidi, filogeneticamente molto conservati, ed esercitano un ruolo cruciale nella regolazione di importanti processi fisiologici, quali sviluppo, proliferazione, differenziamento, apoptosi e risposta a numerosi segnali extracellulari e di stress. I miRNA sono inoltre responsabile della fine regolazione dell'espressione di centinaia di geni bersaglio attraverso il blocco della traduzione o la degradazione dell'mRNA target. Studi di profiling hanno evidenziato l'espressione aberrante di specifici miRNA in numerosi tipi di tumore umano. Lo scopo del presente lavoro è stato quello di individuare un pannello di miRNA deregolati nell'epatocarcinoma umano e di caratterizzare il ruolo biologico di tre miRNA deregolati nell'HCC, al fine di individuare alcuni dei meccanismi molecolari alla base della trasformazione maligna miRNA-associata. La nostra ricerca è stata inoltre focalizzata nell'individuazione di nuovi bersagli e strumenti terapeutici, quali i microRNA, per il trattamento combinato di HCC in stadio intermedio-avanzato.