908 resultados para analisi non lineari
Resumo:
Le but de ce mémoire est d'identifier les caractéristiques typiques du discours touristique à travers une analyse argumentative de trois guides touristiques d'éditeurs et de langue français sur l'Italie du Sud, respectivement le guide «Routard», «Petit futé» et «Le guide bleu». Dans le premier chapitre, j'ai tracé l'histoire du développement et de la diffusion de ce genre textuel à travers les siècles. Ensuite, à travers une analyse non seulement linguistique mais qui prend en compte aussi les éléments et les stéréotypes culturels, j'ai mis en exergue les différences de style des trois guides et la manière dont ils présentent une destination peu connue au public français telle que l'Italie du Sud. En particulier, il a été possible, à travers les textes des guides, de retrouver une représentation pas toujours stéréotypée des Italiens et des Français aussi. Le dernier chapitre est consacré à une étude purement linguistique des textes touristiques, dont j'ai pris en considération des éléments récurrents comme la formule, le lexique évaluatif, la technique du balancement axiologique et la poéticité du langage. En conclusion, avec les outils fournis par l'analyse argumentative et culturelle, il a été possible de répertorier les éléments du style et du langage que l'on pourrait considérer comme typiques du discours de promotion touristique et, en même temps, d'identifier les différences entre les trois guides qui montrent comment un même genre peut se décliner de multiples façons différentes.
Resumo:
Il presente lavoro di tesi tende a un duplice scopo: il primo è quello di fornire una accurata analisi tecnica, applicativa e culturale riguardante il vasto mondo dei big data e il secondo quello di trovare connessioni con l’analisi strategica verificando se e in quale modo i big data possano risultare una risorsa distintiva in campo aziendale. Nello specifico il primo capitolo presenta i big data nelle sue caratteristiche più importanti cercando di approfondire gli aspetti tecnici del fenomeno, le fonti di produzione dei dati, le metodologie principali di analisi e l’impatto sulla società. Il secondo capitolo descrive svariate applicazioni dei big data in campo aziendale concentrandosi sul rapporto tra questi e l’analisi strategica, non trascurando temi come il vantaggio competitivo e la business intelligence. Infine il terzo capitolo analizza la condizione attuale, il punto di vista italiano ed eventuali sviluppi futuri del fenomeno.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Il lavoro di tesi si inserisce in un contesto di ricerca molto attuale, che studia la preparazione di nuovi materiali polimerici ad elevate prestazioni e derivabili da fonti rinnovabili. Partendo dal resorcinolo, una molecola che può essere ottenuta da biomassa, e dall’etilene carbonato sono state ottimizzate la sintesi e la purificazione di un diolo, l’1,3-bis(2-idrossietossi)benzene (HER), senza l’impiego di solventi e con l’utilizzo di modeste quantità di catalizzatore. L’HER è conosciuto in letteratura ma è poco studiato e non viene attualmente impiegato come monomero. In questo lavoro L’HER è stato polimerizzato in massa con una serie di diacidi (alcuni derivati da biomassa, altri provenienti da fonti fossili) sia di natura alifatica (lineari e ciclici) che di natura aromatica. Sono state analizzate la struttura chimica e le proprietà termiche dei nuovi poliesteri, in modo da definire correlazioni fra struttura e prestazioni finali. E’ stata infine messa a punto una procedura one-pot per la preparazione dei suddetti poliesteri; essa prevede la sintesi diretta dei polimeri senza lo stadio intermedio di purificazione dell’HER.
Resumo:
L’anguilla europea, è una specie eurialina catadroma con un complesso ciclo biologico: l’area di riproduzione, unica, si trova molto distante da quella di distribuzione. La specie necessita di una gestione dello stock a fini conservazionistici. Il problema è europeo: lo stock è unico, distribuito in Europa e nell’Africa settentrionale, si riproduce in Atlantico ed è panmittico. C’è preoccupazione per il declino del reclutamento e delle catture di adulti. Lo scopo del progetto è di individuare possibili unità di stock nella penisola italiana. La ricerca è basata sullo studio degli otoliti mediante analisi morfometrica e microchimica. I contorni degli otoliti sono sottoposti ad analisi ellittica di Fourier per individuare eventuali gruppi. Gli otoliti sono stati levigati per effettuare: letture d’età, indagini microstrutturali al SEM delle fasi larvali, analisi microchimiche LA-ICP-MS del nucleo, studiarne l’origine e valutare l’ambiente di sviluppo. Le indagini morfometriche mostrano evidenti pattern ontogenetici, ma non legati ocorrelati alla località, sesso o anno di nascita. Le indagini microstrutturali hanno evidenziano l’alto contenuto organico nucleare, un pattern comune di crescita ed eventi chiave delle fasi larvali, con una media di 212 anelli giornalieri. La microchimica rivela che le larve si sviluppano in acque salate fino alla metamorfosi, poi migrano verso acque meno salate. Le analisi su campioni nati nello stesso anno, evidenziano due gruppi: individui di rimonta naturale e individui di ripopolamento. I profili nucleo bordo evidenziano la permanenza a salinità intermedie degli adulti. L’attività di ricerca si è dimostrata proficua dal punto di vista tecnico con la messa a punto di protocolli innovativi e con forti ricadute sulla riduzione dei tempi e costi d’analisi. Il debole segnale di possibili unità di stock andrà verificato in futuro mediante analisi più dettagliate discriminando meglio la storia di ogni singolo individuo.
Resumo:
Il progetto si concentra sull’analisi ed il commento del libro dei conti di Lorenzo Lotto. Esso viene conservato nell’Archivio storico della Santa Casa di Loreto, ed è meglio conosciuto con il nome apocrifo di Libro di spese diverse. Possiamo considerarlo uno dei più significativi documenti del Rinascimento italiano: infatti esso ci parla dei rapporti che l’artista ha intessuto con committenti, colleghi ed amici, rivelando tanto la sua condotta di vita che la sua attività. È una ricerca che tenta di concentrarsi sull’artista attraverso una lettura più corretta di questa fonte: infatti in passato il Libro di spese diverse era considerato un diario e studiato attraverso una visione non consona al genere di riferimento.
Resumo:
La fibrillazione atriale è l'aritmia maggiormente riscontrata nella pratica clinica. Nonostante l'ablazione transcatetere presenti risultati migliori rispetto alla terapia farmacologica, non è ancora chiaro se sia utile l'aggiunta di ulteriori lesioni in atrio, oltre a quelle delle vene polmonari, in maniera tale da aumentare la percentuale di successo della procedura. Infatti, poiché i meccanismi che portano all'insorgere dell'aritmia e in particolare che la sostengono ancora oggi non sono ben chiari, si sono sviluppate diverse teorie, tra cui quella dei Rotori, che consistono in pattern di stabile rotazione e diffusione intorno al loro punto di origine (pivot) e che si pensa possano essere i responsabili del sostentamento della fibrillazione atriale. Questo elaborato ha l'obiettivo di realizzare un sistema di analisi dei dati elettroanatomici con lo scopo di studiare l'attività elettrica dell'atrio, rivolgendo particolare attenzione all'individuazione di rotori.
Resumo:
Il presente elaborato si propone di offrire un’analisi dell’importanza della mediazione linguistico-culturale in ambito sanitario sia per i pazienti stranieri che per la società. In un contesto sociale sempre più multietnico l’impatto della popolazione straniera sul Servizio Sanitario Nazionale è aumentato in modo esponenziale e le occasioni in cui le barriere linguistico-culturali possono rendere difficoltosa (se non impossibile) la comunicazione clinica si sono moltiplicate. La MLC diviene allora lo strumento che permette agli utenti stranieri di usufruire effettivamente del diritto alla salute e, infatti, questo servizio è legittimato dalle fonti normative sia a livello nazionale che internazionale. Viene quindi presentato dettagliatamente il funzionamento del servizio di MLC negli ospedali e nei servizi sanitari di Reggio Emilia e Provincia e in particolare presso l'Arcispedale Santa Maria Nuova. Viene inoltre analizzato il colloquio tra un medico italiano e una paziente francofona, con attenzione agli aspetti verbali e non verbali della comunicazione. Vengono infine elencate le difficoltà che rendono l’impiego della MLC ancora poco efficace e le soluzioni auspicate.
Resumo:
Questo progetto di tesi ha come obiettivo lo sviluppo di un algoritmo per la correzione e la calibrazione delle immagini in microscopia a fluorescenza e della sua implementazione come programma. Infatti, senza tale calibrazione le immagini di microscopia a fluorescenza sarebbero intrinsecamente affette da molteplici tipi di distorsioni ottiche. Questo limita fortemente la possibilità di effettuare analisi quantitative del livello di fluorescenza osservato. Il difetto sul quale ci siamo soffermati è la disomogeneità di campo, ossia una non uniforme fluorescenza causata dalla forma irregolare del fascio di eccitazione. Per conseguire l'obiettivo da noi proposto è necessaria l'acquisizione, in parallelo al campione in esame, di immagini di calibrazione contenenti sfere nanometriche a fluorescenza nota. A partire da queste, tramite procedure di image processing da noi implementate, abbiamo stimato la funzione di correzione della fluorescenza, localmente per ogni punto dell'immagine. Per la creazione di tale algoritmo abbiamo ipotizzato una possibile distribuzione dell'intensità dovuta alla non omogeneità del fascio ed abbiamo quindi stimato i parametri tramite un'apposita procedura di maximum likelihood. Tale stima è stata eseguita tenendo conto di possibili effetti dovuti alla luminosità di background, alla sovrapposizione di più nanosfere e ad effetti di bordo nel corso dell'elaborazione. Questa procedura è stata ripetuta su quattro diverse immagini di calibrazione, per valutarne la consistenza e la validità. Inoltre, per poter verificare che il software di elaborazione abbia le desiderate proprietà di linearità tra segnale misurato ed intensità nota, ci siamo serviti di un'ulteriore immagine di calibrazione contenente una mistura di sfere nanometriche con intensità variabili su due ordini di grandezza. Il risultato di questo lavoro di tesi verrà incluso in un programma per la calibrazione delle immagini in fluorescenza acquisite al laboratorio di biofisica del Dipartimento di Fisica ed Astronomia di Bologna.
Resumo:
Questo elaborato si concentra sulla serie televisiva americana How I met your mother e sulla traduzione italiana dei titoli degli episodi che la compongono. In particolare, si prederanno in esame quelle proposte traduttive che non rispettano appieno le regole che governano la tipologia testuale del titolo, e verranno proposte soluzioni alternative. In seguito, si analizzeranno alcuni dei titoli appartenenti alla stagione inedita in Italia, per i quali si proporranno delle traduzioni appropriate. Al fine di rendere più concreta questa analisi, una parte della tesi verrà anche dedicata agli aspetti teorici indicati da Maurizio Viezzi riguardo alla tipologia testuale del titolo. Inoltre, si parlerà anche delle varie funzioni individuate dalla studiosa di traduzione Christiane Nord che dovrebbero generalmente regolamentare la traduzione di questo tipo di testo.
Resumo:
La tesi si propone l’obiettivo di indagare le modalità di interazione tra conoscenze tecnico-scientifiche e dato normativo, a partire dallo studio delle c.d. norme tecniche, ossia le norme, dotate di forza giuridica o meno, elaborate sulla base di conoscenze tecnico-scientifiche. La ricerca analizza diversi settori dell’ordinamento, accomunati da un’elevata influenza di saperi tecnici e al tempo stesso da un’indubbia rilevanza dal punto di vista costituzionale (la disciplina delle sperimentazioni cliniche dei farmaci, quella delle emissioni inquinanti di origine industriale e quella relativa agli standard di sicurezza dei prodotti), individuando quelle che al loro interno si possono considerare norme tecniche e mettendone in luce sia i profili formali (in quali atti-fonte sono contenute, quale natura giuridica presentano) che il procedimento di formazione, con particolare attenzione ai soggetti che vi prendono parte. Si propone quindi una sistematizzazione degli elementi emersi dall’indagine a partire da due diverse prospettive: in primo luogo tali dati vengono analizzati dal punto di vista dogmatico, individuando i diversi meccanismi di ingresso del dato tecnico-scientifico nel tessuto normativo (incorporazione nella norma giuridica, impiego di clausole generali, rinvio a norme extra-giuridiche), al fine di mettere in luce eventuali profili problematici per quanto riguarda il sistema delle fonti. La seconda prospettiva prende invece quale punto di riferimento il “centro di elaborazione sostanziale” delle norme considerate, al fine di evidenziarne i diversi fattori di legittimazione: a partire da esigenze di armonizzazione della disciplina e dall’assunto della neutralità delle conoscenze tecnico-scientifiche rispetto agli interessi coinvolti, l’elaborazione delle norme tecniche vede infatti un significativo ripensamento degli equilibri non solo fra attori pubblici e privati, ma anche tra legittimazione politica e legittimazione “tecnica” della scelta normativa. A tali aspetti è dedicata la parte conclusiva del lavoro, in particolare per quanto riguarda la conformità rispetto al disegno costituzionale.
Resumo:
Nel mondo della traduzione non sempre si può guardare esclusivamente alla qualità del testo di arrivo: ci sono scenari traduttivi, come quello oggetto del presente elaborato, in cui è necessario tener conto di altri fattori, in primis i costi per il committente e la produttività del traduttore. Con questo elaborato intendo dimostrare che per lo scenario traduttivo preso in esame, ossia la traduzione per un sito web di una grande quantità di ricette da parte di traduttori diversi, l’ausilio di un programma di traduzione assistita è da preferire, per produttività, coerenza traduttiva e contenimento dei costi, alla traduzione manuale e al post-editing della traduzione automatica. Per tale scopo, ho tradotto una ricetta con ciascuna di queste metodologie di lavoro, così da poterle mettere a confronto e potermi pronunciare, a seguito di un'analisi approfondita, circa il metodo migliore per lo scenario descritto.
Resumo:
Il telerilevamento rappresenta un efficace strumento per il monitoraggio dell’ambiente e del territorio, grazie alla disponibilità di sensori che riprendono con cadenza temporale fissa porzioni della superficie terrestre. Le immagini multi/iperspettrali acquisite sono in grado di fornire informazioni per differenti campi di applicazione. In questo studio è stato affrontato il tema del consumo di suolo che rappresenta un’importante sfida per una corretta gestione del territorio, poiché direttamente connesso con i fenomeni del runoff urbano, della frammentazione ecosistemica e con la sottrazione di importanti territori agricoli. Ancora non esiste una definizione unica, ed anche una metodologia di misura, del consumo di suolo; in questo studio è stato definito come tale quello che provoca impermeabilizzazione del terreno. L’area scelta è quella della Provincia di Bologna che si estende per 3.702 km2 ed è caratterizzata a nord dalla Pianura Padana e a sud dalla catena appenninica; secondo i dati forniti dall’ISTAT, nel periodo 2001-2011 è stata la quarta provincia in Italia con più consumo di suolo. Tramite classificazione pixel-based è stata fatta una mappatura del fenomeno per cinque immagini Landsat. Anche se a media risoluzione, e quindi non in grado di mappare tutti i dettagli, esse sono particolarmente idonee per aree estese come quella scelta ed inoltre garantiscono una più ampia copertura temporale. Il periodo considerato va dal 1987 al 2013 e, tramite procedure di change detection applicate alle mappe prodotte, si è cercato di quantificare il fenomeno, confrontarlo con i dati esistenti e analizzare la sua distribuzione spaziale.
Analisi e progettazione di un'architettura per il monitoraggio a basso costo di catastrofi naturali.
Resumo:
Il monitoraggio ravvicinato di scenari protagonisti di fenomeni ambientali catastrofici, come improvvisi terremoti o violente eruzioni vulcaniche, è reso complicato dalla pericolosità intrinseca di tali ambienti per l'incolumità di operatori e attrezzature. L'obiettivo di questa tesi è di capire se è possibile realizzare un'alternativa alle attuali stazioni monitoranti, caratterizzata da una facile installazione e da un costo contenuto. Sarà fondamentale che la stazione possa trasmettere a distanza tutto ciò che i suoi sensori registrano, finché non sarà resa non operativa da un guasto meccanico causato dall'ambiente circostante.