194 resultados para 302.2 Comunicazione (Classificare qui le Scienze della comunicazione)

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esplosione della crisi nel 2007 ha contribuito alla diffusione di numerosi termini e concetti afferenti al dominio nella finanza strutturata non solo nelle pagine dei quotidiani specializzati, ma anche di quelli generalisti, producendo uno straniante «sentimento neologico» che ha accresciuto il senso di inaccessibilità e soggezione che in molti nutrono nei riguardi delle “cose della finanza” e delle notizie economiche, percepite come ostiche e incomprensibili. Questo lavoro mira a dimostrare che le cause di questo imperante senso di smarrimento di fronte all’informazione economica sono da addurre a più fattori: alla comune scarsa dimestichezza con il linguaggio e le “cose della finanza” dei cittadini; alla complessità dei concetti che i termini in questione veicolano e alla maniera in cui essi vengono presentati dalla vulgata giornalistica. Questa tesi si articola in quattro capitoli: nel primo si discute del tirocinio svolto presso la DGT della Commissione Europea, che ha fornito degli utili spunti per la stesura del presente lavoro; nel secondo si evidenzia l’importanza di una corretta educazione finanziaria per la formazione di una cittadinanza consapevole, in grado alimentare un sistema finanziario sano. Nel terzo capitolo si discute di finanza strutturata, volgendo particolare attenzione al CDO, di cui anche la Consob ha sottolineato l’intrinseca complessità e che ha assunto un ruolo da protagonista nell’esplosione della crisi dei mutui subprime. Nel quarto capitolo si delinea un breve quadro dell’informazione finanziaria in Italia e in Germania; mediante l’analisi di due corpora comparabili e diacronici si mira, infine, a osservare in che modo i giornali, nel corso degli anni, hanno veicolato il concetto che sottende al termine CDO rintracciando, contestualmente, similarità e differenze tra la stampa generalista e quella specializzata e tra i quotidiani tedeschi e quelli italiani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crisis financiera y económica que estalló en Europa en 2008 ha sido un auténtico campo de pruebas para recurrir a todo tipo de recursos expresivos, a la hora de explicar la compleja naturaleza de la coyuntura económica. De esta manera, lejos de ser un artificio de la ornamentación retórica, la metáfora adquiere un sentido simbólico que permite expresar conceptos de forma natural y a veces descontada. El objetivo de este estudio es analizar la utilización de las metáforas en la prensa económica española e italiana en el discurso sobre la crisis en Europa, a través de un análisis basado en corpus. Además, se intenta descubrir semejanzas y diferencias a la vez que se destacan aspectos originales en ambos idiomas. La hipótesis general, de acuerdo con investigaciones previas sobre las metáforas económicas, es que cabe esperar una frecuente utilización de las metáforas. La tésis está dividida en cuatro capítulos. En el primer capítulo se desglosan las principales teorías elaboradas acerca de la metáfora, desde un enfoque clásico hasta una visión cognitivista que se desarrolla a partir de la Teoría de la Metáfora Conceptual propuesta por Lakoff y Johnson (1980). El segundo capítulo se centra en la metáfora económica y los estudios basados en corpus sobre la metáfora, para comprender los diferentes dominios fuente utilizados en el discurso económico y financiero. En el tercer capítulo se proporciona toda información relativa al método de creación y a la metodología de análisis de los corpus, llevada a cabo a través de una minuciosa recolección de artículos de la prensa italiana y española en los diarios Il Sole 24 Ore y Expansión. Los artículos han sido analizados a través del programa informático AntConc. Finalmente, en el cuarto capítulo se presenta el análisis de las metáforas detectadas en los dos corpus periodísticos y los resultados obtenidos, en lo que respecta a semejanzas y diferencias en los dos idiomas. Por esta razón, se seleccionan cuatro dominios fuente: dos más frecuentes (medicina; naturaleza) y dos menos frecuentes (construcción; mecanismos). Además, se hace hincapié en algunos ejemplos del uso de metáforas muy utilizadas, o bien de casos novedosos o creativos en ambos idiomas, con miras a descubrir los principales dominios fuente y los contextos de uso en la cobertura de la crisis. Los resultados que surgen a raíz del análisis muestran una profunda difusión del dominio fuente de la medicina y de la naturaleza en ambos idiomas y una consiguiente creatividad metafórica. En general, el corpus italiano presenta una mayor creatividad metafórica y cadenas metafóricas 138 con respecto al corpus español, a raíz de los hapaxes detectados. Asimismo, el corpus español presenta más casos creativos en el dominio de la construcción con respecto al italiano. El análisis ha permitido confirmar de forma empírica la hipótesis de gran uniformidad en el uso de la metáfora en los distintos periódicos, aun considerando algunas diferencias entre los dos idiomas. Cabe reconocer que, debido al tamaño limitado de los corpus creados, dicho estudio representa un campo de pruebas ampliable y los resultados presentados abren una puerta a nuevas oportunidades de investigación en el discurso económico y financiero o incluso en la enseñanza de la economía.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di misurare ed analizzare completamente le caratteristiche spaziali della distribuzione del suono nel Teatro all’Antica di Sabbioneta, patrimonio UNESCO. Dopo una breve storia sulla città e sul teatro, sono state svolte misurazioni acustiche in diversi punti di misura. Vengono analizzati e calcolati i principali parametri acustici quali tempo di riverbero, indice di robustezza, early decay time, indici di definizione e chiarezza, indici di intelligibilità, parametri spaziali. Viene poi utilizzato un array microfonico che permette di ottenere una completa informazione sulla distribuzione spaziale del suono in un teatro, mappando varie direzioni di arrivo delle riflessioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d’oggi i combustibili fossili come carbone, olio e gas naturale forniscono più del 75% dell’energia mondiale. Tuttavia, la crescente richiesta di queste fonti di energia non rinnovabili, si manifesta in un momento in cui le riserve naturali si stanno esaurendo; è stato infatti stimato che le riserve petrolifere di tutto il mondo possano essere sufficienti per fornire energia e produrre prodotti chimici per i prossimi quarant’anni. Per questo motivo la conversione delle biomasse per produrre energia e prodotti chimici sta diventando una valida alternativa per diversificare le fonti energetiche e ridurre il surriscaldamento globale. Le biomasse, infatti, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Lo sfruttamento delle biomasse per la produzione di building blocks per la chimica suscita particolare interesse, poiché le molecole ottenute sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti. Un esempio di queste potenziali “molecole piattaforma” è il 5-idrossimetilfurfurale (HMF), un importante composto derivato dalla disidratazione di zuccheri, intermedio chiave per la sintesi di un’ampia varietà di prodotti chimici e combustibili alternativi, tra cui l’acido 2,5- furandicarbossilico (FDCA), che è stato identificato tra i dodici composti chimici più importanti degli ultimi anni. Per esempio, il FDCA è un possibile sostituto dell’acido tereftalico, usato per produrre il polietilentereftalato (PET). Recentemente alcuni autori hanno riportato interessanti risultati sull’ossidazione dell’HMF a FDCA utilizzando catalizzatori a base di Au supportato. Questi catalizzatori mostrano però significativi problemi di disattivazione. Lo scopo di questo lavoro di tesi è stato quindi lo sviluppo di catalizzatori attivi e stabili nella reazione di ossidazione dell’HMF a FDCA. Il lavoro portato avanti ha avuto come obbiettivi principali: l’ottimizzazione della sintesi di nanoparticelle di oro e oro/rame a diverso rapporto molare, mediante un processo di sintesi, in acqua, a basso impatto ambientale. Tale metodo di sintesi si basa sull’azione riducente del sistema glucosio-NaOH ed è stato messo a punto in lavori di tesi precedenti. Le nanoparticelle sintetizzate sono state utilizzate, quali fase attiva, per la preparazione di catalizzatori supportati su TiO2 e CeO2 lo studio dell’attività catalitica e riusabilità dei catalizzatori preparati nell’ossidazione in fase liquida del HMF a FDCA.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La frenetica evoluzione sociale e culturale, data dal crescente e continuo bisogno di conoscenza dell’uomo, ha portato oggi a navigare in un oceano sconfinato di dati e informazioni. Esse assumono una propria peculiare importanza, un valore sia dal punto di vista del singolo individuo, sia all’interno di un contesto sociale e di un settore di riferimento specifico e concreto. La conseguente mutazione dell’interazione e della comunicazione a livello economico della società, ha portato a parlare oggi di economia dell’informazione. In un contesto in cui l’informazione rappresenta la risorsa principale per l’attività di crescita e sviluppo economico, è fondamentale possedere la più adeguata strategia organizzativa per la gestione dei dati grezzi. Questo per permetterne un’efficiente memorizzazione, recupero e manipolazione in grado di aumentare il valore dell’organizzazione che ne fa uso. Un’informazione incompleta o non accurata può portare a valutazioni errate o non ottimali. Ecco quindi la necessità di gestire i dati secondo specifici criteri al fine di creare un proprio vantaggio competitivo. La presente rassegna ha lo scopo di analizzare le tecniche di ottimizzazione di accesso alle basi di dati. La loro efficiente implementazione è di fondamentale importanza per il supporto e il corretto funzionamento delle applicazioni che ne fanno uso: devono garantire un comportamento performante in termini di velocità, precisione e accuratezza delle informazioni elaborate. L’attenzione si focalizzerà sulle strutture d’indicizzazione di tipo gerarchico: gli alberi di ricerca. Verranno descritti sia gli alberi su dati ad una dimensione, sia quelli utilizzati nel contesto di ricerche multi dimensionali (come, ad esempio, punti in uno spazio). L’ingente sforzo per implementare strutture di questo tipo ha portato gli sviluppatori a sfruttare i principi di ereditarietà e astrazione della programmazione ad oggetti al fine di ideare un albero generalizzato che inglobasse in sé tutte le principali caratteristiche e funzioni di una struttura di indicizzazione gerarchica, così da aumentarne la riusabilità per i più particolari utilizzi. Da qui la presentazione della struttura GiST: Generalized Search Tree. Concluderà una valutazione dei metodi d’accesso esposti nella dissertazione con un riepilogo dei principali dati relativi ai costi computazionali, vantaggi e svantaggi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Dì che ti piace questa pagina”. Questo è uno dei tanti inviti rivolti a chi, ogni giorno, naviga in Internet. Che si stia leggendo un articolo sul sito de La Repubblica, o visitando il blog di un personaggio famoso o di un politico, i riferimenti ai social network sono ormai una presenza costante nelle pagine web. La facilità di restare in contatto con i propri amici, e la possibilità di collegarsi in qualsiasi momento, hanno portato gli utenti del Web 2.0 ad intensificare le discussioni, ed a commentare gli argomenti ed i contenuti prodotti dagli altri in un continuo e complesso “botta e risposta”. È possibile che quest'ambiente abbia favorito lo sviluppo di una nuova prospettiva della Rete, inteso come un nuovo modo di vedersi e di rapportarsi con gli altri, di esprimersi e di condividere le proprie storie e la propria storia. Per approfondire queste tematiche si è deciso di osservare alcuni dei social networks più diffusi, tra i quali Twitter e Facebook e, per raccogliere i dati più significativi di quest'ultimo, di sviluppare un'apposita applicazione software. Questa tesi tratterà gli aspetti teorici che hanno portato questa ricerca su scala nazionale e l'analisi dei requisiti del progetto; approfondirà le dinamiche progettuali e lo sviluppo dell'applicazione entro i vincoli imposti da Facebook, integrando un questionario per l'utente alla lettura dei dati. Dopo la descrizione delle fasi di testing e deployment, l'elaborato includerà un'analisi preliminare dei dati ottenuti per mezzo di una pre-elaborazione all'interno dell'applicazione stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.