464 resultados para letteratura di viaggio
Applicazioni mobili in ambito turistico: stato dell'arte, tassonomia e valutazione di casi di studio
Resumo:
Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.
Resumo:
La principale finalità di questo lavoro sperimentale riguarda la messa a punto di un metodo analitico rapido ed economico di tipo colorimetrico, che possa essere attuato anche in laboratori attrezzati per eseguire solo semplici determinazioni spettrofotometriche, con il quale quantificare il contenuto in composti fenolici in accordo con quanto riportato nell’health claim salutistico relativo ai polifenoli negli oli d’oliva (Reg. UE 432/2012). A questo scopo, il metodo sarà testato su dodici oli extra vergini di oliva, sia italiani che spagnoli, caratterizzati da concentrazioni diverse in composti fenolici, in parallelo ad un metodo cromatografico (HPLC-UV-MS) preceduto da idrolisi acida, già presente in letteratura. Tale reazione idrolitica consente, infatti, una conversione dei fenoli complessi tipici dell’oliva - i secoiridoidi - in fenoli semplici (idrossitirosolo e tirosolo), permettendo una determinazione semplificata del contenuto fenolico di un campione rispetto a quanto possibile mediante l’applicazione del solo metodo COI ("Determinazione dei biofenoli degli oli di oliva mediante HPLC", COI/T.20/Doc.n.29, 2009) per la verifica di quanto richiesto dall’health claim. Sulla base dei risultati ottenuti, sarà possibile valutare se i test colorimetrici più comunemente applicati per la determinazione dei composti fenolici negli oli d’oliva (Folin-Ciocalteu e metodo per la determinazione degli orto-difenoli con sodio molibdato) siano effettivamente applicabili per la determinazione del contenuto totale di idrossitirosolo e derivati in oli vergini di oliva, indicando se gli oli oggetto dello studio soddisfino o meno i requisiti UE per l’indicazione in etichetta del claim salutistico.
Resumo:
Il materiale composito è entrato nell’ambiente industriale rivoluzionando il concetto di progettazione delle strutture e permettendo il raggiungimento di prestazioni molto più elevate, rispetto ai materiali tradizionali. Infatti, i compositi sono in grado di garantire elevata resistenza e leggerezza, proprietà molto richieste in svariati ambiti industriali. Un suo notevole impiego è riscontrabile nell’industria aeronautica, dove le principali case produttrici di aeromobili hanno investito un apprezzabile quantitativo di risorse economiche nella realizzazione di velivoli con una sempre maggiore percentuale di questo materiale. Il composito, nonostante ci siano testimonianze del suo utilizzo già durante la seconda guerra mondiale, viene tutt’ora ritenuto “nuovo”; questo poiché molte delle sue caratteristiche non sono state ancora esaurientemente analizzate. Le conoscenze ad esso relative presentano ancora, infatti delle lacune, come il loro comportamento a seguito di un impatto. L’obiettivo della presente tesi è quello di indagare, attraverso una campagna sperimentale innovativa, il comportamento del CFRP di fronte a tale problematica, prestando particolare attenzione alla casistica dell’impatto sul bordo. Su tale argomento infatti, non si hanno esempi in letteratura né normative a cui fare riferimento. I campioni, impiegati nel presente studio, sono stati realizzati scegliendo una configurazione cross-ply, che ben si adatta alle successive fasi della campagna. Sui provini ottenuti sono stati eseguiti gli impatti, con l’utilizzo di un pendolo di Charpy, alcuni centrali e altri laterali, con due differenti energie. Questa prima parte della campagna sperimentale è stata svolta presso i laboratori hangar di Forlì, della Scuola di Ingegneria e Architettura dell’Università di Bologna. La caratterizzazione del materiale è avvenuta mediante prove a compressione. Il processo è stato eseguito per verificare l’influenza che l’impatto genera sulle proprietà meccaniche a compressione. Per poter eseguire una campagna di test ottimale, si è vista necessaria un’attenta analisi delle varie attrezzature utilizzabili per le prove a compressione. La scelta è ricaduta sull’attrezzatura CLC (Combined Loading Compression), la quale è risultata essere la più affidabile e maneggevole per le prove oggetto di studio. La fase relativa allo svolgimento delle prove a compressione è stata eseguita presso i laboratori ENEA di Faenza –Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF).
Resumo:
Il lavoro presentato di seguito è volto al miglioramento delle prestazioni dell'apparato per la Tecar terapia prodotto da EME.srl. Tale apparato presenta, allo stato attuale, un sistema basato principalmente su circuiti a componenti attivi operanti in regione lineare che producono una oscillazione a 455kHz, la amplificano e infine la adattano alle caratteristiche richieste per tale apparato. Ampiezza dell'oscillazione e corrente sul carico (paziente) vengono controllate mediante un doppio sistema di retroazione: uno analogico e uno basato su microcontrollore. Entrambi i sistemi lavorano sui valori medi di tensione e corrente. Lo scopo di tale elaborato è quello di migliorare tale apparato rendendo possibile il controllo di nuovi parametri, come la frequenza di oscillazione cosa non possibile nell'attuale implementazione. Si valuterà, nell'ambito dell'attività di tesi, se mantenere l'idea costruttiva originale in cui si aveva un oscillatore autonomo con una cascata di amplificazione a efficienza non elevatissima, retroazionato analogicamente e un controllo mediante uC, oppure passare ad una nuova architettura totalmente gestita da uC sfruttando topologie utilizzate in altri macchinari di EME.srl con l'aggiunta di soluzioni tratte dal mondo delle energie rinnovabili. Per lo studio di tale apparato verrà effettuata inoltre una caratterizzazione sperimentale del corpo umano utilizzando la mano di un soggetto volontario per avere un carico campione realistico e cercando ulteriori riscontri in letteratura.
Resumo:
Il presente lavoro di tesi si propone di esaminare i processi di contaminazione del suolo e delle acque sotterranee conseguenti ad un fenomeno di “oil spill”: con tale termine si vuole intendere un fenomeno di rilascio accidentale di sostanze chimiche, come il benzene, dovuto al danneggiamento di lunghe condotte onshore realizzate per trasferire, tali sostanze, anche per distanze di centinaia di chilometri. Sebbene le basse frequenze incidentali confermino che il trasporto in condotta rappresenta la modalità di movimentazione via terra più sicura per fluidi chimici, bisogna tuttavia tener presente che i quantitativi di sostanze che possono essere rilasciate da questi impianti sono molto elevati.In questo lavoro, si è partiti con l’esaminare un caso studio riportato in letteratura, relativo alla valutazione quantitativa del rischio ambientale legato a fenomeni di oil spill da condotte onshore [Bonvicini et al., 2014]. Si è considerato, in particolare, un singolo tratto di una lunga condotta industriale, in corrispondenza del quale si è ipotizzato il verificarsi di una rottura, con conseguente rilascio di contaminante nel sottosuolo. L’impianto in questione è finalizzato al trasporto di benzene (LNAPL), idrocarburo aromatico cancerogeno, fortemente pericoloso per l’ambiente e per l’uomo.
Resumo:
In letteratura sono presenti numerosi studi che descrivono i fattori che influenzano la vita a fatica di un laminato in CFRP e le modalità di propagazione ed accrescimento a fatica di un difetto. Tuttavia non sono presenti studi approfonditi che leghino l’effetto che può avere la grammatura, sulla vita a fatica del laminato. Il lavoro sperimentale oggetto di questa tesi vuole intendersi un lavoro preliminare, a carattere esplorativo, sullo studio della sensibilità della grammatura sulla resistenza a fatica di laminati in CFRP, attraverso test di flessione a fatica su due configurazioni di provini di grammature differenti (600 e 800 gr/m^2), con e senza inserimento di un difetto artificiale rappresentato da un intaglio sugli ultimi strati del laminato e test di flessione eseguito in accordo allo standard ASTM D2344/D2344M. I test a fatica hanno evidenziato una sensibile riduzione della vita per i provini senza difetto realizzati con l’800 gr/m^2 rispetto a quelli realizzati con il 600 gr/m^2. Per quanto concerne la tolleranza al danno, i provini realizzati con 600 gr/m^2 hanno evidenziato una sensibilità maggiore all’effetto di intaglio, pur avendo un comportamento migliore rispetto a quelli realizzati con l’800 gr/m^2.
Resumo:
Le funzioni polinomiali possono essere utilizzate per approssimare le funzioni continue. Il vantaggio è che i polinomi, le loro derivate e primitive, possono essere rappresentati in maniera semplice attraverso i loro coefficienti ed esistono algoritmi stabili e veloci per valutarli. Inoltre gli spazi polinomiali godono di numerose proprietà importanti. In questo lavoro ci occuperemo di altri spazi funzionali, noti in letteratura come spazi di Chebyshev o polinomi generalizzati, per ragioni di riproducibilità. Infatti ciò che si ottiene attraverso i polinomi è soltanto una approssimazione che spesso risulta essere insufficiente. E' importante, quindi, considerare degli spazi in cui sia possibile avere una rappresentazione esatta di curve. Lo studio di questi spazi è possibile grazie alla potenza di elaborazione degli attuali calcolatori e al buon condizionamento di opportune basi di rappresentazione di questi spazi. Negli spazi polinomiali è la base di Bernstein a garantire quanto detto. Negli spazi di Chebyshev si definisce una nuova base equivalente. In questo lavoro andremo oltre gli spazi di Chebyshev ed approfondiremo gli spazi di Chebyshev a tratti, ovvero gli spazi formati dall'unione di più spazi del tipo precedente. Si dimostrerà inoltre l'esistenza di una base a tratti con le stesse proprietà della base di Bernstein per gli spazi polinomiali.
Resumo:
Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.
Resumo:
L’obiettivo della seguente tesi è quello di illustrare le condizioni in cui avviene il trasferimento di conoscenza da consulente a cliente, e come questo sia il fattore abilitante per l’esistenza e l’utilizzo di tale figura professionale da parte delle organizzazioni. Questa tesi nasce dall’esperienza vissuta durante la partecipazione alla XXIV edizione di Junior Consulting, un programma organizzato da CONSEL - ELIS presso Roma, che ha permesso al sottoscritto di prendere parte al progetto di consulenza “Engineering & Construction - Performance Monitoring System” commissionato da Enel Green Power. L’esigenza manifestata dall’azienda era quella di riuscire ad avere una visione chiara e definita della qualità delle attività svolte dalla funzione Engineering & Construction (E&C) e quindi l’obiettivo del progetto si è concretizzato nella definizione di un set di KPI idoneo a rappresentare una misura delle performance della suddetta funzione. Avendo testato, seppure per pochi mesi, l’attività consulenziale, il candidato ha compiuto uno studio teorico che andasse ad analizzare in dettaglio l’attività del consulente, la sua importanza nel mondo economico, il contesto in cui opera e i principali dibattiti accademici di cui è protagonista negli ultimi anni. Nell’elaborato viene analizzato il caso pratico sulla base degli studi della letteratura, con lo scopo di formulare un modello che descriva l’approccio che il consulente dovrebbe avere, durante lo svolgimento delle sue attività, per la realizzazione del trasferimento di conoscenza. Nel primo capitolo è riportato uno studio relativo all’importanza e agli effetti che le società di consulenza hanno avuto nell’ultimo secolo ed in particolare negli ultimi 30 anni. Nel secondo capitolo è descritto il core asset delle società di consulenza, ovvero la conoscenza, e come questa è strutturata e gestita. Nel terzo capitolo sono analizzate le principali teorie sviluppate sulla figura del consulente, sia l’evoluzione storica che le principali posizioni ancora oggi oggetto di dibattito. Nel quarto capitolo l’attenzione è focalizzata sul trasferimento di conoscenza da consulente a cliente e sulle condizioni in cui questo può avvenire. Nel quinto capitolo è presentato il progetto sopracitato, i cui risultati sono riportati negli allegati 1 e 2. Infine, nel sesto capitolo, è presentato un modello di approccio del consulente ottenuto dall’analisi critica del caso pratico sulla base delle evidenze emerse dallo studio della letteratura.
Resumo:
La previsione della copertura RF in ambiente urbano è oggi comunemente considerato un problema risolto, con decine di modelli proposti in letteratura che mostrano una buona approssimazione rispetto alle misure. Tra questi, il ray tracing è considerato come uno dei più accurati tra i modelli disponibili. In questo lavoro si dimostra però come sia ancora necessario parecchio lavoro per fare in modo che il ray tracing possa essere effettivamente impiegato per scopi pratici.
Resumo:
L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.
Resumo:
All’interno di questo elaborato di tesi verrà proposto un Modello di Valutazione e Selezione delle Iniziative commerciali, costruito nel corso dell’esperienza di stage presso la società Astaldi. Nella parte iniziale del lavoro, verranno presentati dei concetti teorici che costituiscono il presupposto e la base per la costruzione del Modello. Il background di riferimento è quello di un’azienda che lavora nel mondo delle costruzioni, sviluppando progetti complessi a livello internazionale. Nel primo capitolo, dopo una breve introduzione sul Project Management, si prenderà in esame l’ambiente multiproject, un ambiente nel quale gran parte delle aziende si trova ad operare e nel quale opera anche l’Astaldi. Successivamente, partendo da queste considerazioni legate all’ambiente multi-progetto, verranno descritte le potenzialità ed i vantaggi di un approccio Project Portfolio Management, come evoluzione naturale del Project Management. Nell’ambito del Project Portfolio Management, verrà analizzata l’importanza del processo di selezione dei progetti per la costruzione del portafoglio e le relative tecniche di selezione. Nel secondo capitolo verranno presentate le Misure e gli Indicatori di performance definiti in letteratura. Verranno anche introdotti dei possibili Indicatori di Valutazione, la cui misurazione è particolarmente legata al Project Life Cycle: questi verranno fatti propri all’interno del Modello presentato che darà come output, proprio un Indicatore di Valutazione ex-ante del progetto. Nel terzo capitolo verrà illustrata la società Astaldi al fine di comprendere il più possibile il contesto in cui e per cui si è costruito tale Modello. Nel quarto ed ultimo capitolo sarà analizzato il Modello stesso, descrivendo le modalità con cui è stato realizzato, le modalità operative per la sua applicazione ed alcuni esempi esplicativi del suo utilizzo.
Resumo:
Con il termine “tetti verdi” si intendono vere e proprie coperture vegetate, che fungono da valida alterativa alle tipologie convenzionali a coppi oppure in guaina impermeabilizzante. Per quanto questi possano essere considerati una soluzione moderna relativa alle diverse Best Management Practices (BMP), in realtà sono stati realizzati e sfruttati fin dall'antichità. Dagli anni Settanta ad oggi hanno preso sempre più piede in Europa e negli altri continenti a causa dei molteplici benefici che li accompagnano a livello ambientale. All'interno di questo studio ci si pone l‟obiettivo di valutarne i vantaggi, principalmente a livello energetico ed idraulico, riscontrati in letteratura, direttamente sul campo, grazie al sito di studio presso la sede di Ingegneria di via Terracini, Bologna. Sulle coperture del LAGIRN (Laboratorio di Geoingegneria e Risorse Naturali), infatti, nell‟estate 2013 sono stati realizzati due tetti verdi (uno a Sedum, che sarà indicato con la sigla GR, e uno con piante autoctone, identificato con la sigla NA). Tramite il confronto tra le temperature registrate grazie a diversi tipi di strumentazione, è stato possibile quantificare i comportamenti delle coperture su scala annuale, non solo l‟una rispetto l‟altra, ma anche in rapporto a una porzione di tetto lasciata a guaina bituminosa (indicato con la sigla RR). Considerando il ruolo della vegetazione come strumento per la mitigazione del fenomeno d‟isola di calore urbana, infine, con l‟ausilio del software CFD denominato ENVI-met si è modellata l‟intera area del Lazzaretto e si sono simulati tre diversi scenari: 1) Lo stato attuale 2) Una situazione ipotetica con tutte coperture a Sedum 3) Una situazione ipotetica con tutte coperture con specie autoctone per la giornata estiva più calda e per un comune giorno di Ottobre, a seguito di una minuziosa calibrazione. Il confronto tra la situazione reale e quelle supposte dimostra la validità dei green roofs nella lotta al riscaldamento delle grandi città.
Resumo:
Nella tesi si è studiata una macchina automatica per l'industria farmaceutica: l'Adapta 100, un'opercolatrice (macchina riempi-capsule) prodotta da IMA SpA. Gli scopi della tesi erano chiarire il flusso di potenza dei vari assi e valutare un possibile risparmio energetico. La macchina infatti ha diversi motori: uno, collegato all'asse master, che comanda i gruppi non rimovibili e gli altri che comandano i gruppi di dosaggio. Tali motori in generale, per qualche tratto del ciclo della macchina, potranno lavorare come generatori, anche considerando il solo funzionamento a regime: si avrà cioè, in qualche istante, che le forze esterne tendono ad accelerare il motore, che così assorbe energia meccanica e produce energia elettrica. Attualmente tale energia viene dissipata in apposite resistenze collegate ai motori; ci si è chiesti se non si potesse invece immagazzinare l'energia prodotta, ad esempio per usarla in caso di black-out, per frenare delicatamente la macchina senza che gli assi perdano la fase. Un'alternativa è quella di ridistribuire la potenza generata istante per istante collegando i motori a un comune bus DC. Prima però è necessario conoscere gli andamenti di coppia e velocità di ciascun motore: per questo ci si è ricondotti al modello della macchina a 1 gdl, riducendo tutte le coppie e le inerzie all'asse motore. Si sono studiati i due assi più importanti in termini di coppie e potenze di picco: questi sono l'asse master e l'asse di dosaggio della polvere farmaceutica. Il modello è stato concretamente implementato con degli script MATLAB. Il modello risulta flessibile, per considerare le varie modalità di funzionamento della macchina, e considera i principali termini di coppia, inclusi attriti (inseriti sotto forma di rendimenti) e forze esterne di lavorazione. Tra queste è particolarmente importante la forza di compattazione della polvere, che è stata modellata con la formula di Kawakita, nota dalla letteratura.
Resumo:
L’autore tedesco Erich Kästner è noto al pubblico italiano soprattutto per la narrativa per ragazzi, ma tende ad essere dimenticato quando si affronta la letteratura del dopoguerra. Anch’egli, infatti, diede un contributo fondamentale alla Trümmerliteratur, ovvero la letteratura delle macerie, un movimento letterario nato in Germania nel secondo dopoguerra e che si poneva come obiettivo quello di testimoniare la crudezza della seconda guerra mondiale. Scopo dell’elaborato è quindi quello di fare luce sul contributo di Kästner alla Trümmerliteratur mediante la proposta di traduzione dal tedesco all’italiano di due testi tratti dalla raccolta Der tägliche Kram [Le cianfrusaglie di tutti i giorni]. Dopo una breve introduzione all’autore, al movimento letterario e all’opera in questione, vengono analizzati più attentamente i due testi, definendone la tipologia e la funzione testuale, aspetti fondamentali ai fini traduttivi. Nel quarto capitolo si trovano le traduzioni italiane affiancate dal testo originale tedesco in modo da facilitarne il confronto. L’affiancamento dei testi è inoltre necessario per un riconoscimento più immediato delle strategie traduttive, che vengono approfondite nel quinto capitolo.