1000 resultados para Reale Istituto veneto di scienze, lettere ed arti (Venice, Italy)
Resumo:
in questo elaborato sono trattati i temi delle Adaptive User Interface e dell'Internet Of Things nei sistemi mobili. Il primo attraverso l'orchestrazione e la definizione di un'architettura framework in grado di fornire allo sviluppatore tutti gli strumenti di base per la realizzazione di interfacce grafiche capaci di esibire un comportamento adattativo a livello di singoli componenti. il secondo,invece, attraverso lo studio della tecnologia DQuid applicata ad un caso d'uso reale nel quale si prevedeva la connessione di un applicazione mobile iOS con un sistema per il parcheggio in garage di un'autovettura ed il monitoraggio delle informazioni relative.
Resumo:
In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.
Resumo:
Cenni sulle attività geodetiche e sugli studi di glaciologia nella calotta Est-Antartica. Introduzione alle tecniche di rilievo GPS e ai sistemi di riferimento geocentrici internazionali WGS84 e ITRFyy. Studio del sito di Talos Dome ed elaborazione della superficie topografica del duomo tramite l'uso di misure GPS in modalità cinematica continua.
Resumo:
I transistor elettrochimici a base organica (OECT) hanno attratto sempre maggior interesse e sono oggetto di molti studi dagli anni '70 no ai nostri giorni. Questo lavoro di tesi ha come oggetto la realizzazione e la caratterizzazione di OECT a base di poli(3,4-etilen-diossi-tiofene) complessato con l'acido stirensolfonico (PSS). Questi dispositivi sono stati costruiti utilizzando solamente semiconduttori organici come materiali conduttivi ovvero senza l'uso di metalli, quindi risultano essere biocompatibili, economici e di semplice realizzazione. Questo tipo di sensori presenta un elevata sensibilità agli analiti e necessita di un'elettronica di controllo molto più semplice rispetto a metodi elettrochimici tradizionali che utilizzano un potenziostato ed un elettrodo di riferimento. Sono state studiate diverse geometrie e spessori di polimero depositato per ottimizzare le condizioni di lavoro per avere alta sensibilità e guadagno in corrente attraverso l'uso di misure di corrente di drain in funzione del tempo con aggiunte successive di analita. Questi dispositivi sono stati utilizzati come sensori di analiti quali la dopamina, l'acido ascorbico e l'acido urico. Attraverso scansioni in transcaratteristica, si è studiata la risposta dei transistor relativa agli analiti ed attraverso lo studio della transconduttanza si è ottenuta una nuova metodologia di lavoro in grado di separare i contributi relativi ai vari composti. Inoltre, in questa modalità, è stato possibile ottenere una selettività dei sensori ai vari analiti, problema principale dell'utilizzo di transistor elettrochimici, ed attraverso la modulazione della velocità di scansione dello strumento, è stata ottenuta una risposta alla sola dopamina, analita di maggior interesse per applicazioni biosensoristiche. In conclusione si può affermare che questo tipo di dispositivo possiede ottime proprietà e caratteristiche per ulteriori studi e sviluppi in applicazioni reali.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.
Resumo:
La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Innovative analytical strategies for the development of sensor devices and mass spectrometry methods
Resumo:
Il lavoro presentato in questa tesi di Dottorato è incentrato sullo sviluppo di strategie analitiche innovative basate sulla sensoristica e su tecniche di spettrometria di massa in ambito biologico e della sicurezza alimentare. Il primo capitolo tratta lo studio di aspetti metodologici ed applicativi di procedure sensoristiche per l’identificazione e la determinazione di biomarkers associati alla malattia celiaca. In tale ambito, sono stati sviluppati due immunosensori, uno a trasduzione piezoelettrica e uno a trasduzione amperometrica, per la rivelazione di anticorpi anti-transglutaminasi tissutale associati a questa malattia. L’innovazione di questi dispositivi riguarda l’immobilizzazione dell’enzima tTG nella conformazione aperta (Open-tTG), che è stato dimostrato essere quella principalmente coinvolta nella patogenesi. Sulla base dei risultati ottenuti, entrambi i sistemi sviluppati si sono dimostrati una valida alternativa ai test di screening attualmente in uso per la diagnosi della celiachia. Rimanendo sempre nel contesto della malattia celiaca, ulteriore ricerca oggetto di questa tesi di Dottorato, ha riguardato lo sviluppo di metodi affidabili per il controllo di prodotti “gluten-free”. Il secondo capitolo tratta lo sviluppo di un metodo di spettrometria di massa e di un immunosensore competitivo per la rivelazione di prolammine in alimenti “gluten-free”. E’ stato sviluppato un metodo LC-ESI-MS/MS basato su un’analisi target con modalità di acquisizione del segnale selected reaction monitoring per l’identificazione di glutine in diversi cereali potenzialmente tossici per i celiaci. Inoltre ci si è focalizzati su un immunosensore competitivo per la rivelazione di gliadina, come metodo di screening rapido di farine. Entrambi i sistemi sono stati ottimizzati impiegando miscele di farina di riso addizionata di gliadina, avenine, ordeine e secaline nel caso del sistema LC-MS/MS e con sola gliadina nel caso del sensore. Infine i sistemi analitici sono stati validati analizzando sia materie prime (farine) che alimenti (biscotti, pasta, pane, etc.). L’approccio sviluppato in spettrometria di massa apre la strada alla possibilità di sviluppare un test di screening multiplo per la valutazione della sicurezza di prodotti dichiarati “gluten-free”, mentre ulteriori studi dovranno essere svolti per ricercare condizioni di estrazione compatibili con l’immunosaggio competitivo, per ora applicabile solo all’analisi di farine estratte con etanolo. Terzo capitolo di questa tesi riguarda lo sviluppo di nuovi metodi per la rivelazione di HPV, Chlamydia e Gonorrhoeae in fluidi biologici. Si è scelto un substrato costituito da strips di carta in quanto possono costituire una valida piattaforma di rivelazione, offrendo vantaggi grazie al basso costo, alla possibilità di generare dispositivi portatili e di poter visualizzare il risultato visivamente senza la necessità di strumentazioni. La metodologia sviluppata è molto semplice, non prevede l’uso di strumentazione complessa e si basa sull’uso della isothermal rolling-circle amplification per l’amplificazione del target. Inoltre, di fondamentale importanza, è l’utilizzo di nanoparticelle colorate che, essendo state funzionalizzate con una sequenza di DNA complementare al target amplificato derivante dalla RCA, ne permettono la rivelazione a occhio nudo mediante l’uso di filtri di carta. Queste strips sono state testate su campioni reali permettendo una discriminazione tra campioni positivi e negativi in tempi rapidi (10-15 minuti), aprendo una nuova via verso nuovi test altamente competitivi con quelli attualmente sul mercato.
Resumo:
Il lavoro di tesi, che si compone di tre articoli di ricerca, analizza, nel contesto della marketing promotion, la risposta del consumatore ai media in termini di ricordo, intenzione di acquisto, comportamento di acquisto e preferenza per il medium. Il lavoro, in particolare, mette a confronto due tipologie di media, carta e online, nell’ambito della price e loyalty promotion, utilizzando due disegni di ricerca sperimentali ed uno correlazionale. I risultati del lavoro mostrano che la risposta del consumatore alla comunicazione promozionale e ai media è eterogenea: segmenti di clienti diversi rispondono in maniera differente sia alla comunicazione promozionale che a carta e digitale. Online e carta hanno in media la stessa efficacia sui comportamenti di acquisto dei clienti, ma differiscono rispetto all’effetto su ricordo e atteggiamento e rispetto alla preferenza per il medium espressa dalla clientela. Lo spostamento delle risorse di marketing dalla carta al digitale permetterebbe quindi di ridurre i costi mantenendo lo stesso livello di efficacia. Inoltre, il presente lavoro mostra come sia possibile aumentare la risposta dei consumatori ai media attraverso un approccio di segmentazione della clientela.