999 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
Obiettivo di questa tesi è l'analisi e l'approfondimento di una tecnologia di nuova generazione che prende il nome di iBeacon. Basata sulla localizzazione di prossimità (wireless) a bassi consumi energetici e sviluppata da Apple, l'iBeacon sfrutta il protocollo Bluetooth Low Energy con il quale riesce ad utilizzare al meglio l'energia, permettendo alle batterie dei dispositivi che lo implementano di durare molto più a lungo. In questa argomentazione, vengono elencate e descritte alcune tecniche di comunicazione wireless a medio-corto raggio (Wi-Fi, Infrarosso, RFID, NFC, Bluetooth, BLE), che utilizzano lo scambio di informazioni senza fili, descrivendone una breve storia, dalla loro evoluzione nel tempo e nei modi, ad alcune caratteristiche di utilizzo. L'argomentazione poi focalizzerà l'attenzione sui metodi di localizzazione utilizzati dall'iBeacon, fornendone le funzionalità e le caratteristiche principali di questa nuova tecnologia e discutendone i vantaggi, i limiti tecnologici e di sviluppo del protocollo, fino a delineare alcune soluzioni per quanto riguarda le soglie di sicurezza e di privacy. L'analisi poi confronterà l'iBeacon con i maggiori antagonisti che utilizzano questa tecnica di microgeolocalizzazione (NFC, EddyStone). Si cercherà inoltre di delineare in maniera più dettagliata le specifiche tecniche che costituiscono questa nuova tecnologia di prossimità, dal protocollo di comunicazione alla componentistica hardware. Successivamente verrà descritto come un dispositivo iOS si interfaccia con un iBeacon, delineandone le API e il setup e mostrando i diversi passaggi per la creazione di un prototipo di applicazione. Si cercherà infine di pianificare, progettare e costruire una rete con iBeacon. Come ultima analisi, si prenderà in esame la relazione tra l'iBeacon e l'Internet of Things (IoT), e gli sviluppi che potrà portare all'evoluzione del Marketing di Prossimità, mostrando un esempio concreto di utilizzo efficace di questa innovativa tecnologia (EXPO 2015).
Resumo:
In questo lavoro di tesi si indaga come gli acceleratori di particelle si siano rivelati di fondamentale utilità nel settore medico-sanitario, risolvendo problematiche fisiche ed economiche legate alla produzione di radioisotopi. Per riuscire ad effettuare procedure terapeutiche e diagnostiche di qualità senza ricondursi a tecniche invasive, sta diventando sempre più importante disporre di ciclotroni nelle vicinanze delle strutture ospedaliere. Di fronte alla carenza di radionuclidi e alla necessità di produrre nuovi radiofarmaci, il mondo si sta muovendo per affiancare ai pochi reattori nucleari rimasti operativi, progetti nati dalla collaborazione di diversi centri di ricerca. In particolare in Italia è in corso un progetto, il TECHN-OPS, portato avanti da diverse sezioni INFN (compreso quella di Bologna), che si pone l’obiettivo di supplire al bisogno di 99m-Tc sfruttando una rete limitata di ciclotroni (che utilizzano bersagli di molibdeno arricchito) e lo sviluppo di metodi di riciclo di 100-Mo e di ottimizzazione delle varie fasi di produzione.
Resumo:
La tesi vuole essere una panoramica generale sugli strumenti anti-plagio e sul fenomeno del plagio. Si parte col descrivere le leggi in merito al plagio e come viene sanzionato, successivamente si parla del plagio in ambito universitario cioè come le università si approcciano al problema. Si descrivono i metodi di individuazione del plagio sia nei testi che nei software. Si analizzano diversi programmi: uno di analisi testuale (CitePlag) altri di analisi dei software; questi ultimi vengono confrontati tra di loro attraverso una serie di test infine se ne discutono i risultati.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
La fabbricazione additiva è una classe di metodi di fabbricazione in cui il componente viene costruito aggiungendo strati di materiale l’uno sull’altro, sino alla completa realizzazione dello stesso. Si tratta di un principio di fabbricazione sostanzialmente differente da quelli tradizionali attualmente utilizzati, che si avvalgono di utensili per sottrarre materiale da un semilavorato, sino a conferire all’oggetto la forma desiderata, mentre i processi additivi non richiedono l’utilizzo di utensili. Il termine più comunemente utilizzato per la fabbricazione additiva è prototipazione rapida. Il termine “prototipazione”’ viene utilizzato in quanto i processi additivi sono stati utilizzati inizialmente solo per la produzione di prototipi, tuttavia con l’evoluzione delle tecnologie additive questi processi sono sempre più in grado di realizzare componenti di elevata complessità risultando competitivi anche per volumi di produzione medio-alti. Il termine “rapida” viene invece utilizzato in quanto i processi additivi vengono eseguiti molto più velocemente rispetto ai processi di produzione convenzionali. La fabbricazione additiva offre diversi vantaggi dal punto di vista di: • velocità: questi processi “rapidi” hanno brevi tempi di fabbricazione. • realizzazione di parti complesse: con i processi additivi, la complessità del componente ha uno scarso effetto sui tempi di costruzione, contrariamente a quanto avviene nei processi tradizionali dove la realizzazione di parti complesse può richiedere anche settimane. • materiali: la fabbricazione additiva è caratterizzata dalla vasta gamma di materiali che può utilizzare per la costruzione di pezzi. Inoltre, in alcuni processi si possono costruire pezzi le cui parti sono di materiali diversi. • produzioni a basso volume: molti processi tradizionali non sono convenienti per le produzioni a basso volume a causa degli alti costi iniziali dovuti alla lavorazione con utensili e tempi di setup lunghi.
Resumo:
Uno dei principali problemi legati ai metodi di controllo usuali del serraggio riguarda l’impossibilità di avere un'accurata misurazione del precarico del bullone, il quale risulta essere un parametro di grande importanza per prevenire rotture pericolose che possono portare al collasso dell’intera struttura. Si è cercato, dunque, un confronto di misurazioni tra i diversi metodi di controllo del serraggio e quello ad ultrasuoni.
Resumo:
In questa tesi vengono studiate alcune caratteristiche dei network a multiplex; in particolare l'analisi verte sulla quantificazione delle differenze fra i layer del multiplex. Le dissimilarita sono valutate sia osservando le connessioni di singoli nodi in layer diversi, sia stimando le diverse partizioni dei layer. Sono quindi introdotte alcune importanti misure per la caratterizzazione dei multiplex, che vengono poi usate per la costruzione di metodi di community detection . La quantificazione delle differenze tra le partizioni di due layer viene stimata utilizzando una misura di mutua informazione. Viene inoltre approfondito l'uso del test dell'ipergeometrica per la determinazione di nodi sovra-rappresentati in un layer, mostrando l'efficacia del test in funzione della similarita dei layer. Questi metodi per la caratterizzazione delle proprieta dei network a multiplex vengono applicati a dati biologici reali. I dati utilizzati sono stati raccolti dallo studio DILGOM con l'obiettivo di determinare le implicazioni genetiche, trascrittomiche e metaboliche dell'obesita e della sindrome metabolica. Questi dati sono utilizzati dal progetto Mimomics per la determinazione di relazioni fra diverse omiche. Nella tesi sono analizzati i dati metabolici utilizzando un approccio a multiplex network per verificare la presenza di differenze fra le relazioni di composti sanguigni di persone obese e normopeso.
Resumo:
Nella presente tesi è stato sviluppato un sistema di acquisizione automatico finalizzato allo studio del breast microwave imaging. Le misure sono state eseguite in configurazione monostatica, in cui viene acquisito un segnale da diverse posizioni lungo il perimetro dell’area di indagine. A questo scopo, è stato installato un motore ad alta precisione che permette la rotazione del fantoccio e l’esecuzione automatica delle misure da un numero di posizioni fissato. Per automatizzare il processo di acquisizione, è stato inoltre sviluppato appositamente un software in ambiente LabView. Successivamente, è stata eseguita una intensa sessione di misure finalizzate alla caratterizzazione del sistema sviluppato al variare delle condizioni di misura. Abbiamo quindi utilizzato dei fantocci di tumore di diverse dimensioni e permittività elettrica per studiare la sensibilità della strumentazione in condizione di mezzo omogeneo. Dall’analisi delle ricostruzioni multifrequenza effettuate tramite diversi algoritmi di tipo TR-MUSIC sul range di frequenze selezionato, abbiamo notato che il tumore è ricostruito correttamente in tutti gli scenari testati. Inoltre, abbiamo creato un ulteriore fantoccio per simulare la presenza di una disomogeneità nel dominio di imaging. In questo caso, abbiamo studiato le performances del sistema di acquisizione al variare della posizione del tumore, le cui caratteristiche sono state fissate, e della permittività associata al fantoccio. Dall’analisi dei risultati appare che le performances di ricostruzione sono condizionate dalla presenza della disomogeneità, in modo particolare se il tumore è posizionato all’interno di essa. Infine, abbiamo studiato delle performance di due algoritmi di ricostruzione 3D: uno di essi è basato sulla sovrappo- sizione tomografica e sfrutta metodi di interpolazione, l’altro si basa sull’utilizzo di un propagatore 3D per il dipolo Hertziano in approssimazione scalare.
Resumo:
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Resumo:
Ueber das leben und die werke des alten toscanischen bildhauers, Nichola Pisano.--Ueber den altarschmuck in S. Iacopo in Pistoja.--Nachrichten von einigen ältern malern und malereien in Pisa und Lucca.--Cimabue.--Ueber die ältern wandgemälde im Campo santo zu Pisa.--Giotto di Bondone und Symon di Martino.--Ambruogio Lorenzetti.--Niccolo Petri.--Ueber das technische verfahren bei den mauergemälden des vierzehnten jahrhunderts.
Resumo:
Il presente lavoro ha lo scopo di comprendere i processi sottesi ai pattern di coesistenza tra le specie di invertebrati sorgentizi, distinguendo tra dinamiche stocastiche e deterministiche. Le sorgenti sono ecosistemi complessi e alcune loro caratteristiche (ad esempio l’insularità, la stabilità termica, la struttura ecotonale “a mosaico”, la frequente presenza di specie rare ed endemiche, o l’elevata diversità in taxa) le rendono laboratori naturali utili allo studio dei processi ecologici, tra cui i processi di assembly. Al fine di studiare queste dinamiche è necessario un approccio multi-scala, per questo motivi sono state prese in considerazione tre scale spaziali. A scala locale è stato compiuto un campionamento stagionale su sette sorgenti (quattro temporanee e tre permanenti) del Monte Prinzera, un affioramento ofiolitico vicino alla città di Parma. In questa area sono stati valutati l’efficacia e l’impatto ambientale di diversi metodi di campionamento e sono stati analizzati i drivers ecologici che influenzano le comunità. A scala più ampia sono state campionate per due volte 15 sorgenti della regione Emilia Romagna, al fine di identificare il ruolo della dispersione e la possibile presenza di un effetto di niche-filtering. A scala continentale sono state raccolte informazioni di letteratura riguardanti sorgenti dell’area Paleartica occidentale, e sono stati studiati i pattern biogeografici e l’influenza dei fattori climatici sulle comunità. Sono stati presi in considerazione differenti taxa di invertebrati (macroinvertebrati, ostracodi, acari acquatici e copepodi), scegliendo tra quelli che si prestavano meglio allo studio dei diversi processi in base alle loro caratteristiche biologiche e all’approfondimento tassonomico raggiungibile. I campionamenti biologici in sorgente sono caratterizzati da diversi problemi metodologici e possono causare impatti sugli ambienti. In questo lavoro sono stati paragonati due diversi metodi: l’utilizzo del retino con un approccio multi-habitat proporzionale e l’uso combinato di trappole e lavaggio di campioni di vegetazione. Il retino fornisce dati più accurati e completi, ma anche significativi disturbi sulle componenti biotiche e abiotiche delle sorgenti. Questo metodo è quindi raccomandato solo se il campionamento ha come scopo un’approfondita analisi della biodiversità. D’altra parte l’uso delle trappole e il lavaggio della vegetazione sono metodi affidabili che presentano minori impatti sull’ecosistema, quindi sono adatti a studi ecologici finalizzati all’analisi della struttura delle comunità. Questo lavoro ha confermato che i processi niche-based sono determinanti nello strutturare le comunità di ambienti sorgentizi, e che i driver ambientali spiegano una rilevante percentuale della variabilità delle comunità. Infatti le comunità di invertebrati del Monte Prinzera sono influenzate da fattori legati al chimismo delle acque, alla composizione e all’eterogeneità dell’habitat, all’idroperiodo e alle fluttuazioni della portata. Le sorgenti permanenti mostrano variazioni stagionali per quanto riguarda le concentrazioni dei principali ioni, mentre la conduttività, il pH e la temperatura dell’acqua sono più stabili. È probabile che sia la stabilità termica di questi ambienti a spiegare l’assenza di variazioni stagionali nella struttura delle comunità di macroinvertebrati. L’azione di niche-filtering delle sorgenti è stata analizzata tramite lo studio della diversità funzionale delle comunità di ostracodi dell’Emilia-Romagna. Le sorgenti ospitano più del 50% del pool di specie regionale, e numerose specie sono state rinvenute esclusivamente in questi habitat. Questo è il primo studio che analizza la diversità funzionale degli ostracodi, è stato quindi necessario stilare una lista di tratti funzionali. Analizzando il pool di specie regionale, la diversità funzionale nelle sorgenti non è significativamente diversa da quella misurata in comunità assemblate in maniera casuale. Le sorgenti non limitano quindi la diversità funzionale tra specie coesistenti, ma si può concludere che, data la soddisfazione delle esigenze ecologiche delle diverse specie, i processi di assembly in sorgente potrebbero essere influenzati da fattori stocastici come la dispersione, la speciazione e le estinzioni locali. In aggiunta, tutte le comunità studiate presentano pattern spaziali riconoscibili, rivelando una limitazione della dispersione tra le sorgenti, almeno per alcuni taxa. Il caratteristico isolamento delle sorgenti potrebbe essere la causa di questa limitazione, influenzando maggiormente i taxa a dispersione passiva rispetto a quelli a dispersione attiva. In ogni caso nelle comunità emiliano-romagnole i fattori spaziali spiegano solo una ridotta percentuale della variabilità biologica totale, mentre tutte le comunità risultano influenzate maggiormente dalle variabili ambientali. Il controllo ambientale è quindi prevalente rispetto a quello attuato dai fattori spaziali. Questo risultato dimostra che, nonostante le dinamiche stocastiche siano importanti in tutte le comunità studiate, a questa scala spaziale i fattori deterministici ricoprono un ruolo prevalente. I processi stocastici diventano più influenti invece nei climi aridi, dove il disturbo collegato ai frequenti eventi di disseccamento delle sorgenti provoca una dinamica source-sink tra le diverse comunità. Si è infatti notato che la variabilità spiegata dai fattori ambientali diminuisce all’aumentare dell’aridità del clima. Disturbi frequenti potrebbero provocare estinzioni locali seguite da ricolonizzazioni di specie provenienti dai siti vicini, riducendo la corrispondenza tra gli organismi e le loro richieste ambientali e quindi diminuendo la quantità di variabilità spiegata dai fattori ambientali. Si può quindi concludere che processi deterministici e stocastici non si escludono mutualmente, ma contribuiscono contemporaneamente a strutturare le comunità di invertebrati sorgentizi. Infine, a scala continentale, le comunità di ostracodi sorgentizi mostrano chiari pattern biogeografici e sono organizzate lungo gradienti ambientali principalmente collegati altitudine, latitudine, temperatura dell’acqua e conducibilità. Anche la tipologia di sorgente (elocrena, reocrena o limnocrena) è influente sulla composizione delle comunità. La presenza di specie rare ed endemiche inoltre caratterizza specifiche regioni geografiche.
Resumo:
The pioneering work proposed by Skumanich (1972) has shown that the projected mean rotational velocity < v sini > for solar type stars follows a rotation law decreases with the time given by t −1/2 , where t is the stellar age. This relationship is consistent with the theories of the angular momentum loss through the ionized stellar wind, which in turn is coupled to the star through its magnetic field. Several authors (e.g.: Silva et al. 2013 and de Freitas et al. 2014) have analyzed the possible matches between the rotational decay and the profile of the velocity distribution. These authors came to a simple heuristic relationship, but did not build a direct path between the exponent of the rotational decay (j) and the exponent of the distribution of the rotational velocity (q). The whole theoretical scenario has been proposed using an efficient and strong statistical mechanics well known as non-extensive statistical mechanics. The present dissertation proposes effectively to close this issue by elaborating a theoretical way to modify the q-Maxwellians’ distributions into q-Maxwellians with physics links extracted from the theory of magnetic braking. In order to test our distributions we have used the GenevaCapenhagen Survey data with approximately 6000 F and G field stars limited by age. As a result, we obtained that the exponents of the decay law and distribution follow a similar relationship to that proposed by Silva et al. (2013).
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Il mio elaborato si concentra sul tema della dislessia, in correlazione all’apprendimento delle lingue straniere. Lo scopo è quello di fornire al lettore un quadro generale sul disturbo, metterne in luce le principali caratteristiche e le modalità di diagnosi, per poi e analizzare le possibilità di intervento e riabilitazione, soprattutto in relazione alle nuove tecnologie. Un altro aspetto trattato è quello relativo all’impatto che la dislessia può avere su chi si avvicina all’apprendimento di una lingua straniera, con particolare attenzione al caso specifico dell’inglese, lingua che al giorno d’oggi rappresenta uno strumento di comunicazione fondamentale. Da ultimo si propone anche l’analisi di alcuni tra i più recenti metodi di intervento, che costituiscono una prospettiva estremamente interessante, nonché una grande risorsa, soprattutto in ambito didattico.
Resumo:
Il presente elaborato si pone l'obiettivo di analizzare i neologismi nella stampa francese contemporanea attraverso lo spoglio di alcuni quotidiani generalisti a grande tiratura che sembrano essere più sensibili alla creazione lessicale. La tesi è organizzata in due parti complementari, la prima di natura teorica e la seconda analitica, comprensiva di un corpus di neologismi. Nel capitolo I verranno esposte la definizione e la storia sia della neologia che del neologismo in Francia, ponendo l'accento su come sia cambiata la percezione dei due termini nel corso del tempo. Nel capitolo II, saranno esaminati le motivazioni principali che determinano la nascita e l' affermazione di un neologismo, ragioni che sono insieme di natura linguistica e sociale. Nel capitolo III si proseguirà con una sintesi dei metodi di creazione linguistica, nonché neologia formale, neologia semantica e prestiti. Questi ultimi sono molto spesso di matrice anglofona e, come vedremo nel capitolo IV, incontrano una certa resistenza da parte della politica linguistica dell'Esagono, che si batte contro l'afflusso massiccio e indiscriminato dei prestiti (specie quelli di lusso) e sollecita alla neologia endogena. Il V capitolo della tesi è dedicato specificamente ai neologismi nella stampa francese. Sarà presentato qualche cenno storico sulle origini dei giornali e si tracceranno le caratteristiche stilistiche proprie della scrittura giornalistica. La parte teorica si conclude con un paragrafo incentrato sulle funzioni rivestite dai neologismi nella stampa. Nella parte analitica sarà offerto un corpus che raccoglie diversi neologismi attinti da Le Monde, Le Figaro e Libération. Tali neologismi, relativi a svariati ambiti, saranno analizzati in modo sintetico da un punto di vista morfologico. Per ciascuno di essi sarà fornita altresì una breve definizione. Infine, saranno tratte le dovute considerazioni sui metodi di formazione più sfruttati e produttivi.