40 resultados para marketing con causa
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Obiettivo dii questo elaborato è cercare di dimostrare come il Web e i Social Media non sono solo dei nuovi canali di comunicazione ma costituiscono una testimonianza del radicale cambiamento che modifica la comunicazione aziendale per come è stata concepita fino ad oggi. Nascita e sviluppo del Web e passaggio dal marketing tradizionale al web marketing saranno temi centrali nella parte introduttiva. Frutto di un’analisi approfondita sarà il tema del Social media marketing, ponendo particolare attenzione ai social media più utilizzati, all’impatto che le aziende hanno con questi, i canali di comunicazione utilizzati dalle aziende e quali sono i leader del settore, quindi, le aziende, che hanno attuato ottime campagne nei social networks. In un ultima parte verranno esaminati gli strumenti attraverso i quali è possibile monitorare i comportamenti degli utenti, come ascoltarli nei social media per entrare in relazione con loro e misurare i risultati delle attività di comunicazione (Web analytics, Social media monitoring); verranno inoltre analizzati gli aspetti per una buona strategia di comunicazione aziendale nel web quindi dando uno sguardo ad un buon piano di comunicazione e alla web & brand reputation.
Resumo:
La geolocalizzazione e i LBS (Location-based services), servizi associati a questi tecnologia stanno trasformando radicalmente il modo in cui i consumatori interagiscono con brand, prodotti e aziende, sia online che nel mondo reale. L 'esplosione nell'utilizzo degli smartphone ha causato un notevole aumento dell'interesse degli utenti per i servizi geolocalizzati, che aprono nuove frontiere sia ai consumatori che ai marketers. Questa tesi di laurea analizza in particolare il fenomeno Foursquare nel mondo e in Italia definendo il modello di business associato a questa tecnologia, servendosi di numerose case history e testimonianze.
Resumo:
Il mondo dei buoni sconto, in seguito alla recessione che si è verificata tra il 2009 e il 2011, ha vissuto una vertiginosa crescita che lo ha riportato agli apici della sua storia. Tutto il mondo è tornato a parlarne quotidianamente, numerosissime società hanno investito capitali per sfruttare il momento propizio e l’innovazione tecnologica ne ha favorito nuove espressioni. Vivo a stretto contatto con una delle tante società che credono in questo mercato e intendono farne parte. Ho vissuto la nascita di un nuovo progetto di livello nazionale, ho avuto la fortuna di poter osservare da vicino i movimenti della società, le decisioni e i progetti. In vista di un 2011 all’insegna dei buoni sconto, la tesi nasce per fare il punto della situazione in un mercato molto ampio e complesso, in rapida evoluzione, per capirne i principali attori e per studiarne le dinamiche. Vuole fare chiarezza sull’attività della società e studiarne i possibili sviluppi futuri imperniati sull’uso delle tecnologie più evolute.
Resumo:
In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.
Resumo:
Il panorama delle aziende italiane è costellato da una moltitudine di piccoli attori largamente specializzati in mansioni definite. Sono le piccole e le medie imprese (PMI), aziende per lo più familiari e con meno di qualche decina di dipendenti, talvolta con un'importante storia alle loro spalle che, nonostante la crisi e l'avvento di Internet, sono riuscite a rimanere leader incontrastati nel loro settore. È proprio Internet infatti uno dei pericoli più grandi per esse. Settori che in passato erano presenti offline, negli uffici dove ci si rivolgeva per l'erogazione del servizio richiesto, oggi godono di una fortissima se non predominante attività online, come il settore della ricerca e della selezione del personale. Questo settore, in particolare, ha subito tutta l'influenza di Internet. Annunci, ricerche di lavoro, consulenze, sono quasi totalmente presenti attraverso il canale online. Tale cambiamento ha portato ad una scossa nel mercato, cambiando le modalità di offerta e di domanda dei servizi, determinando chi dovesse sopravvivere e chi no. È Internet stessa ad offrire uno strumento fondamentale per la rivalutazione delle proprie attività e il ritorno di piccole imprese a guidare il mercato, soprattutto nelle realtà locali. Riuscire ad avere il coraggio di affrontare il cambiamento che Internet impone, riorganizzando il proprio lavoro e la propria struttura, è oggi un trampolino di lancio per competere con i grandi head hunter del settore, con aziende del calibro di Monster che sembrano ormai irrangiungibili. Li pensiamo irrangiungibili perché dominanti nei motori di ricerca: sistemi che veicolano attraverso di essi l'informazione e che oggi sono lo strumento che tutti noi quotidianamente utilizziamo per raggiungere le aziende e i loro servizi. I motori di ricerca sono però anche il luogo più democratico della rete. Non sono i soldi o la forza numerica data dell'essere una grande azienda a determinare il posizionamento in essi. È invece la capacità di inviduare e focalizzare il proprio core business che offre la possibilità di primeggiare tra le realtà locali, siano esse a livello provinciale o regionale ad esempio. In queste realtà, in questi settori, non sono i grandi attori internazionali ad avere più possibilità di successo ma sono le attività vicine al territorio ad esserne i leader. Capire questo e agire sulle leve che permettano alle PMI di dirigere il mercato è l'obiettivo di questa tesi. La tesi inizia con una analisi dei principali motori di ricerca italiani, di come sono strutturati e come essi riescono a valutare chi possa essere presente per una determinata keyword e chi non possa esserlo ma soprattutto la qualità attribuita e la posizione assunta. L'argomentazione viene sviluppata su due differenti percorsi: il primo analitico, dove vengono presentati i motori di ricerca, i loro algoritmi, la loro storia e la loro evoluzione futura, per capire come poter essere presenti oggi e come poter esserlo domani. La seconda parte è invece operativa, analizzando Teseo: un'agenzia di ricerca e selezione del personale operante a livello regionale nell'Emilia Romagna e fortemente specializzata in alcune attività molto specifiche. E' stato prodotto un prototipo di sito studiando i punti di forza e le debolezze di sistemi come WordPress e, infine, il lavoro punta alla sua messa online, al confronto tra i risultati raggiunti dal vecchio sito e quelli ottenuti con il nuovo, con una parte finale dedicata a delle attività collaterali e alla valutazione di strategie future sul lungo periodo. Nel settore della ricerca e della selezione del personale via Internet, come può una PMI sopravvivere contro i grandi head hunter?
Resumo:
A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.
Resumo:
Abbiamo studiato ABSFJf, un linguaggio ad oggetti concorrente con tipi di dato futuro ed operazioni per acquisire e rilasciare il controllo delle risorse. I programmi ABSFJf possono manifestare lock (deadlock e livelock) a causa degli errori del programmatore. Per individuare staticamente possibili com- portamenti non voluti abbiamo studiato e implementato una tecnica per l'analisi dei lock basata sui contratti, che sono una descrizione astratta del comportamento dei metodi. I contratti si utilizzano per formare un automa i cui stati racchiudono informazioni di dipendenza di tipo chiamante-chiamato; vengono derivati automaticamente da un algoritmo di type inference e model- lati da un analizzatore che sfrutta la tecnica del punto
Resumo:
Lo scopo di questa tesi è l'installazione di un Rilassometro ottenuto a partire da un magnete permanente situato nel Dipartimento di Fisica e Astronomia (DIFA - via Irnerio, 46), al fine di eseguire misure attendibili di Rilassometria in mezzi porosi su campioni del diametro di alcuni centimetri. Attualmente nel Dipartimento è gia presente un elettromagnete adibito a misure di questo tipo; tuttavia, questo strumento permette lo studio di campioni di piccole dimensioni (circa 220mm3) e si rivela insuffciente per lo studio di rocce, coralli e altre strutture porose di più grande dimensione senza la frantumazione del campione stesso; per questa ragione si è presentata la necessità dell'istallazione di una nuova strumentazione. Parte della strumentazione utilizzata è in disuso da parecchi anni e le caratteristiche devono essere verificate. Dopo l'assemblaggio della strumentazione (magnete, console, probe), sono state determinate le migliori condizioni in cui effettuare le misure, ovvero i parametri fondamentali dell'elettronica (frequenza di risonanza, TATT, tempo morto del probe, tempo di applicazione dell'impulso 90°) e la zona di maggiore uniformità del campo magnetico. Quindi, sono state effettuate misure di T1 e T2 su campioni bulk e su un campione di roccia saturata d'acqua, confrontando i risultati con valori di riferimento ottenuti tramite elettromagnete. I risultati ottenuti risultano consistenti con i valori attesi, con scarti - inevitabili a causa della grande differenza di volume dei campioni - molto ridotti, pertanto l'installazione del nuovo Rilassometro risulta essere completata con successo.
Resumo:
Al giorno d’oggi, la produzione di energia e di molecole di base per l’industria chimica è completamente dipendente da risorse non rinnovabili come petrolio, carbone e gas naturale ; con tali risorse in via di esaurimento e la sempre crescente domanda di energia e materiali da parte di tutte le economie, risulta obbligatorio sviluppare tecniche per la loro produzione da risorse rinnovabili. Le biomasse, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Tuttavia, ad oggi, lo sfruttamento di queste fonti risulta ancora sfavorito economicamente a causa di processi industriali non ancora ottimizzati, i cui costi si ripercuotono sul prodotto finale. Le molecole derivanti dagli scarti lignocellulosici possono essere usate come molecole di partenza per industrie chimiche di qualsiasi tipo, da quelle farmaceutiche a quelle plastiche. Queste molecole sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti . Una delle molecole “piattaforma” identificate tra le più importanti per la produzione di diversi prodotti chimici, risulta essere il 5-idrossimetilfurfurale (HMF) , derivante dalla disidratazione di polisaccaridi esosi, da cui si può ottenere tramite ossidazione selettiva, l’acido 2,5-furandicarbossilico (FDCA), potenziale sostituto dell’acido tereftalico nella produzione del PET e molti altri prodotti. Lo scopo di questo lavoro di tesi è stato lo studio della reattività di catalizzatori a base di Pd e Au/Pd utilizzati nella reazione di ossidazione dell’HMF a FDCA. Il lavoro svolto ha avuto come obiettivi principali: • L’ottimizzazione della sintesi di nanoparticelle di Pd e Au/Pd a diverso rapporto molare, e la caratterizzazione delle sospensioni ottenute mediante analisi DLS, XRD e TEM. • La preparazione di catalizzatori supportati su TiO2 e la caratterizzazione dei catalizzatori ottenuti tramite analisi BET, TEM e analisi termiche TGA/DSC. • Lo studio dell’attività catalitica dei catalizzatori preparati nell’ossidazione selettiva in fase liquida del 5-idrossimetilfurfurale (HMF) ad acido 2,5-furandicarbossilico (FDCA) e del meccanismo di reazione.
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
Nel corso di questa Tesi sono state studiate reazioni di cluster carburo-carbonilici Fe/Cu con composti azotati di varia natura: complessi fosforescenti di metalli di transizione, 1-10 fenantrolina, L-amminoacidi e Chinolina. In particolare la reazione tra Fe4C(CO)12Cu2(CH3CN)2 e [Ru(tpy)(bpy)(N4C-C6H4-CN)]+ ha portato alla sintesi dell’addotto Fe4C(CO)12{Cu2Cl[Ru(tpy)(bpy)(N4C-C6H4-CN)]}, sul quale sono state condotte misure di luminescenza (emissione, eccitazione e misura dei tempi di vita degli stati eccitati). Per confronto degli spettri registrati su campioni di adotto in soluzione con quelli del complesso cationico di Ru(II), si è ipotizzato che l’addotto sintetizzato in soluzione dia origine ad un sistema in equilibrio tra le specie legate e dissociate. Le reazioni di Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con 1-10 fenantrolina hanno permesso di isolare le nuove specie [Fe4C(CO)12(Cuphen)]–, [Fe4C(CO)12(Cuphen)] e [Fe5C(CO)14(Cuphen)]–, sottoforma dei loro sali [Cu(phen)2][Fe4C(CO)12(Cuphen)], [NEt4] [Fe4C(CO)12(Cuphen)], [Fe4C(CO)12(Cuphen)], [NEt4][Fe5C(CO)14(Cuphen)]• CH2Cl2 e [NEt4][Fe5C(CO)14(Cuphen)]•THF. In tali cluster si nota come la natura bidentata di phen e il suo ingombro sterico abbiano causato notevoli riarrangiamenti strutturali rispetto alle specie iniziali contenenti acetonitrile. La sintesi di Fe4C(CO)12(CuQ)2 e [NEt4][Fe5C(CO)14(CuQ)] è avvenuta inaspettatamente a partire dalle reazioni condotte tra Fe4C(CO)12Cu2(CH3CN)2 e [NEt4][Fe5C(CO)14Cu(CH3CN)] con le molecole L-prolina, L-metionina e guanina, a causa della chinolina contenuta come impurezza nei reagenti di partenza. L’esito di questa reazione ha comunque mostrato l’elevata affinità dei cluster per il legante chinolina, sebbene presente in ambiente di reazione in misura sensibilmente inferiore rispetto agli altri reagenti. Tutte le nuove specie sintetizzate sono stati caratterizzate mediante spettroscopia IR e le strutture molecolari sono state determinate mediante diffrazione di raggi X su cristallo singolo.
Resumo:
Le biomasse sono attualmente la più promettente alternativa ai combustibili fossili per la produzione di sostanze chimiche e fuels. A causa di problematiche di natura etica la ricerca oggi si sta muovendo verso l'uso delle biomasse che sfruttano terreni non coltivabili e materie prime non commestibili, quali la lignocellulosa. Attualmente sono state identificate diverse molecole piattaforma derivanti da biomasse lignocellulosiche. Tra queste ha suscitato grande interesse la 2-furaldeide o furfurale (FU). Tale molecola può essere ottenuta mediante disidratazione di monosaccaridi pentosi e possiede elevate potenzialità; è infatti considerata un intermedio chiave per la sintesi di un’ampia varietà di combustibili alternativi come il metilfurano (MFU) e prodotti ad elevato valore aggiunto per l’industria polimerica e la chimica fine come l’alcol furfurilico (FAL). In letteratura tali prodotti vengono principalmente ottenuti in processi condotti in fase liquida mediante l’utilizzo di catalizzatori eterogenei a base di metalli nobili come: Ni-Co-Ru-Pd, Pt/C o Pt/Al2O3, NiMoB/γ-Al2O3, in presenza di idrogeno molecolare come agente riducente. La riduzione del gruppo carbonilico mediante l’utilizzo di alcoli come fonti di idrogeno e catalizzatori a base di metalli non nobili tramite la reazione di Meerwein–Ponndorf–Verley (MPV), rappresenta un approccio alternativo che limita il consumo di H2 e permette di utilizzare bio-alcoli come donatori di idrogeno. Lo scopo di questo lavoro di tesi è stato quello di mettere a punto un processo continuo, in fase gas, di riduzione della FU a FAL e MFU, utilizzando metanolo come fonte di idrogeno tramite un meccanismo di H-transfer. In dettaglio il lavoro svolto può essere così riassunto: Sintesi dei sistemi catalitici MgO e Mg/Fe/O e loro caratterizzazione mediante analisi XRD, BET, TGA/DTA, spettroscopia RAMAN. Studio dell’attività catalitica dei catalizzatori preparati nella reazione di riduzione in fase gas di FU a FAL e MFU utilizzando metanolo come fonte di idrogeno.
Resumo:
La malattia di Parkinson è un disturbo neurodegenerativo con eziologia sconosciuta che colpisce in particolare le aree del cervello che sono coinvolte nel controllo del movimento. Tale disturbo neurologico causa anomalie sull’andatura del soggetto portandolo ad esempio a strisciare i piedi e flettere il busto più del necessario; anomalie che causano una camminata insicura che può sfociare in inciampi e cadute. Lo scopo di questo studio è disegnare e sviluppare algoritmi in grado di stimare la clearance dei piedi e l’inclinazione del tronco, al fine di essere inseriti nel progetto CuPiD, il quale fornisce un feedback vocale ogni volta in cui il soggetto parkinsoniano presenti valori dei parametri monitorati al di fuori di un range fisiologico. Sono stati reclutati 20 soggetti, 10 a cui è stata diagnosticata la malattia di Parkinson idiopatica e 10 asintomatici. Nella valutazione sperimentale si è acquisita la camminata dei soggetti coinvolti nell’esperimento, utilizzando un sistema inerziale ed un sistema stereofotogrammetrico come gold standard. Ogni soggetto ha eseguito 4 camminate, ciascuna della durata di 2 minuti, nelle seguenti diverse condizioni: camminata normale, focus sui piedi, focus sul tronco, audio stroop. Inoltre si è valutata l’entità delle differenze cliniche dei due parametri stimati, tra il gruppo dei soggetti malati di Parkinson ed il gruppo dei soggetti sani. Dallo studio effettuato si propone un algoritmo per la stima della clearance che presenta un errore relativamente alto
Resumo:
Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.