1000 resultados para Queste
Resumo:
L'origine e lo sviluppo del concetto di numero trascendente attraversano quasi tutta la storia della matematica ed i risultati più importanti si sono ottenuti solo in tempi relativamente recenti. I numeri trascendenti costituiscono un argomento che ha sempre affascinato i matematici ma fino a poco tempo fa, in una prospettiva di epoche storiche, si conoscevano pochissimi esempi di numeri di cui si sapesse dimostrare la trascendenza. La dimostrazione della trascendenza di pi greco mette fine ai tentativi di risolvere per via elementare la quadratura del cerchio, uno dei problemi classici dell'antichità. Scopo di questa tesi è presentare delle dimostrazioni di esistenza dei numeri trascendenti utilizzabili anche a scopo didattico e dimostrare la trascendenza del numero di Nepero e di pi greco. Ho deciso, inoltre, nel mio lavoro di tesi, di ripercorrere le tappe principali dell'evoluzione storica del concetto di numero trascendente ed ho analizzato quelle che oltre ad essere di grande importanza storica, sono utili ad una migliore comprensione del concetto stesso. La presentazione di queste tappe può essere molto importante, a mio parere, da un punto di vista didattico in quanto i testi di matematica mostrano quasi sempre concetti e teoremi come entità assolute e immutabili, inserite nei giorni nostri, senza fare riferimento al contesto storico ed umano in cui le idee sono nate.
Resumo:
La tesi ha lo scopo di introdurre Investiga, un'applicazione per l'estrazione automatica di informazioni da articoli scientifici in formato PDF e pubblicazione di queste informazioni secondo i principi e i formati Linked Open Data, creata per la tesi. Questa applicazione è basata sul Task 2 della SemPub 2016, una challenge che ha come scopo principale quello di migliorare l'estrazione di informazioni da articoli scientifici in formato PDF. Investiga estrae i capitoli di primo livello, le didascalie delle figure e delle tabelle da un dato articolo e crea un grafo delle informazioni così estratte collegate adeguatamente tra loro. La tesi inoltre analizza gli strumenti esistenti per l'estrazione automatica di informazioni da documenti PDF e dei loro limiti.
Resumo:
Il mondo dell’Internet of Things e del single board computing sono settori in forte espansione al giorno d’oggi e le architetture ARM sono, al momento, i dominatori in questo ambito. I sistemi operativi e i software si stanno evolvendo per far fronte a questo cambiamento e ai nuovi casi d’uso che queste tecnologie introducono. In questa tesi ci occuperemo del porting della distribuzione Linux Sabayon per queste architetture, la creazione di un infrastruttura per il rilascio delle immagini e la compilazione dei pacchetti software.
Resumo:
L'evoluzione tecnologica e l'utilizzo crescente della computer grafica in diversi settori stanno suscitando l'interesse di sempre più persone verso il mondo della modellazione 3D. I software di modellazione, tuttavia, si presentano spesso inadeguati all'utilizzo da parte di utenti senza esperienza, soprattutto a causa dei comandi di navigazione e modellazione poco intuitivi. Dal punto di vista dell'interazione uomo-computer, questi software devono infatti affrontare un grande ostacolo: il rapporto tra dispositivi di input 2D (come il mouse) e la manipolazione di una scena 3D. Il progetto presentato in questa tesi è un addon per Blender che consente di utilizzare il dispositivo Leap Motion come ausilio alla modellazione di superfici in computer grafica. L'obiettivo di questa tesi è stato quello di progettare e realizzare un'interfaccia user-friendly tra Leap e Blender, in modo da potere utilizzare i sensori del primo per facilitare ed estendere i comandi di navigazione e modellazione del secondo. L'addon realizzato per Blender implementa il concetto di LAM (Leap Aided Modelling: modellazione assistita da Leap), consentendo quindi di estendere le feature di Blender riguardanti la selezione, lo spostamento e la modifica degli oggetti in scena, la manipolazione della vista utente e la modellazione di curve e superfici Non Uniform Rational B-Splines (NURBS). Queste estensioni sono state create per rendere più veloci e semplici le operazioni altrimenti guidate esclusivamente da mouse e tastiera.
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Le regioni HII sono nubi di idrogeno ionizzato da stelle di recente formazione, massicce e calde. Tali stelle, spesso raggruppate in ammassi, emettono copiosamente fotoni di lunghezza d’onda λ ≤ 912 Å, capaci di ionizzare quasi totalmente il gas che le circonda, composto prevalentemente da idrogeno, ma in cui sono presenti anche elementi ionizzati più pesanti, come He, O, N, C e Ne. Le dimensioni tipiche di queste regioni vanno da 10 a 100 pc, con densità dell’ordine di 10 cm−3. Queste caratteristiche le collocano all’interno del WIM (Warm Ionized Medium), che, insieme con HIM (Hot Ionized Medium), WNM (Warm Neutral Medium) ed CNM (Cold Neutral Medium), costituisce la varietà di fasi in cui si presenta il mezzo interstellare (ISM, InterStellar Medium). Il tema che ci prestiamo ad affrontare è molto vasto e per comprendere a fondo i processi che determinano le caratteristiche delle regioni HII sarebbero necessarie molte altre pagine; lo scopo che questo testo si propone di raggiungere, senza alcuna pretesa di completezza, è dunque quello di presentare l’argomento, approfondendone ed evidenziandone alcuni particolari tratti. Prima di tutto descriveremo le regioni HII in generale, con brevi indicazioni in merito alla loro formazione e struttura. A seguire ci concentreremo sulla descrizione dei processi che determinano gli spettri osservati: inizialmente mostreremo quali siano i processi fisici che generano l’emissione nel continuo, concentrandoci poi su quello più importante, la Bremmstrahlung. Affronteremo poi una breve digressione riguardo al processo di ricombinazione ione-elettrone nei plasmi astrofisici ed alle regole di selezione nelle transizioni elettroniche, concetti necessari per comprendere ciò che segue, cioè la presenza di righe in emissione negli spettri delle regioni foto-ionizzate. Infine ci soffermeremo sulle regioni HII Ultra-Compatte (UC HII Region), oggetto di numerosi recenti studi.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
Negli ultimi anni, l'avanzamento incredibilmente rapido della tecnologia ha portato allo sviluppo e alla diffusione di dispositivi elettronici portatili aventi dimensioni estremamente ridotte e, allo stesso tempo, capacità computazionali molto notevoli. Più nello specifico, una particolare categoria di dispositivi, attualmente in forte sviluppo, che ha già fatto la propria comparsa sul mercato mondiale è sicuramente la categoria dei dispositivi Wearable. Come suggerisce il nome, questi sono progettati per essere letteralmente indossati, pensati per fornire continuo supporto, in diversi ambiti, a chi li utilizza. Se per interagire con essi l’utente non deve ricorrere obbligatoriamente all'utilizzo delle mani, allora si parla di dispositivi Wearable Hands Free. Questi sono generalmente in grado di percepire e catture l’input dell'utente seguendo tecniche e metodologie diverse, non basate sul tatto. Una di queste è sicuramente quella che prevede di modellare l’input dell’utente stesso attraverso la sua voce, appoggiandosi alla disciplina dell’ASR (Automatic Speech Recognition), che si occupa della traduzione del linguaggio parlato in testo, mediante l’utilizzo di dispositivi computerizzati. Si giunge quindi all’obiettivo della tesi, che è quello di sviluppare un framework, utilizzabile nell’ambito dei dispositivi Wearable, che fornisca un servizio di riconoscimento vocale appoggiandosi ad uno già esistente, in modo che presenti un certo livello di efficienza e facilità di utilizzo. Più in generale, in questo documento si punta a fornire una descrizione approfondita di quelli che sono i dispositivi Wearable e Wearable Hands-Free, definendone caratteristiche, criticità e ambiti di utilizzo. Inoltre, l’intento è quello di illustrare i principi di funzionamento dell’Automatic Speech Recognition per passare poi ad analisi, progettazione e sviluppo del framework appena citato.
Resumo:
In questa tesi riportiamo le definizioni ed i risultati principali relativi alla corrispondenza tra le successioni di polinomi di tipo binomiale (particolari basi dello spazio dei polinomi a coefficienti reali) e gli operatori delta, cioè operatori lineari sullo spazio dei polinomi che commutano con gli operatori di traslazione e il cui nucleo è costituito dai polinomi costanti. Nel capitolo 1 richiamiamo i concetti fondamentali sull'algebra delle serie formali e definiamo l'algebra degli operatori lineari invarianti per traslazione, dimostrando in particolare l'isomorfismo tra queste algebre. Nel capitolo 2, dopo aver dimostrato l'unicità della successione di base relativa ad un operatore delta, ricaviamo come esempio le successioni di base di tre operatori delta, che useremo durante tutto il capitolo: l'operatore derivata, l'operatore di differenza in avanti e l'operatore di differenza all'indietro. Arriviamo quindi a dimostrare un importante risultato, il Primo Teorema di Sviluppo, in cui facciamo vedere come le potenze di un operatore delta siano una base per l'algebra degli operatori invarianti per traslazione. Introducendo poi le successioni di Sheffer, possiamo dimostrare anche il Secondo Teorema di Sviluppo in cui esplicitiamo l'azione di un operatore invariante per traslazione su un polinomio, tramite un operatore delta fissato e una sua successione di Sheffer. Nell'ultima parte della tesi presentiamo i formalismi e alcune semplici operazioni del calcolo umbrale, che useremo per determinare le cosiddette costanti di connessione, ovvero le costanti che definiscono lo sviluppo di una successione binomiale in funzione di un'altra successione binomiale usata come base dello spazio dei polinomi.
Resumo:
Scopo di questo lavoro è l’individuazione di una metodica che permetta la valutazione dosimetrica interna dei lavoratori in Medicina Nucleare, dell’I.R.S.T. I radionuclidi impiegati hanno elevata volatilità e tempi di dimezzamento molto brevi quindi, diventa di fondamentale importanza la misura della concentrazione in aria. come radioisotopo d'interesse è stato considerato il F-18. Per la misura della contaminazione in aria è stato utilizzato un sistema progettato dall’azienda MecMurphil (MP-AIR). L’aria attraversa un beaker Marinelli, posto in un pozzetto schermato in piombo (5/6 cm di spessore più rivestimento in rame di 3 mm) nel quale è inserito un rivelatore a scintillazione NaI(Tl) a basso fondo in modalità di campionamento continuo. Attraverso il software MAIR-C, collegato al rivelatore, è stato possibile calibrarlo in energia, FWHM e efficienza. I locali analizzati, poiché quotidianamente frequentati dal personale, sono: Laboratorio caldo, Corridoio, Attesa calda, Camere degenza, e Radiofarmacia. Mediante l’uso di fogli di calcolo, è stata determinata la concentrazione media presente nei diversi locali. I risultati ottenuti hanno mostrato che la concentrazione massima di F-18 è nella radiofarmacia.Le persone con accesso ai locali “caldi” sono state classificate, sulla base delle attività da loro svolte in: medici, TSRM, infermieri e radiofarmacisti. Per ognuna di queste figure è stato stimato il tempo di permanenza all’interno dei locali.Si è proceduto, poi, alla validazione del metodo utilizzato per il calcolo della dose interna per inalazione, applicando quanto riportato nella pubblicazione I.C.R.P. 66, che ha come scopo principale quello di determinare i limiti annuali d’introduzione dei radionuclidi per i lavoratori.Le metodiche, applicate al solo radioisotopo F-18, permettono di ricavare una prima stima della dose inalata dagli operatori, aprendo un’ ampia gamma di possibili sviluppi futuri.
Resumo:
Questo lavoro di tesi nasce all’interno del nucleo di ricerca in didattica della fisica dell’Università di Bologna, coordinato dalla professoressa Olivia Levrini e che coinvolge docenti di matematica e fisica dei Licei, assegnisti di ricerca e laureandi. Negli ultimi anni il lavoro del gruppo si è concentrato sullo studio di una possibile risposta all'evidente e pressante difficoltà di certi docenti nell'affrontare gli argomenti di meccanica quantistica che sono stati introdotti nelle indicazioni Nazionali per il Liceo Scientifico, dovuta a cause di vario genere, fra cui l'intrinseca complessità degli argomenti e l'inefficacia di molti libri di testo nel presentarli in modo adeguato. In questo contesto, la presente tesi si pone l’obiettivo di affrontare due problemi specifici di formalizzazione matematica in relazione a due temi previsti dalle Indicazioni Nazionali: il tema della radiazione di corpo nero, che ha portato Max Planck alla prima ipotesi di quantizzazione, e l’indeterminazione di Heisenberg, con il cambiamento di paradigma che ha costituito per l’interpretazione del mondo fisico. Attraverso un confronto diretto con le fonti, si cercherà quindi di proporre un percorso in cui il ruolo del protagonista sarà giocato dagli aspetti matematici delle teorie analizzate e dal modo in cui gli strumenti della matematica hanno contribuito alla loro formazione, mantenendo un costante legame con le componenti didattiche. Proprio in quest'ottica, ci si accorgerà della forte connessione fra i lavori di Planck e Heisenberg e due aspetti fondamentali della didattica della matematica: l'interdisciplinarietà con la fisica e il concetto di modellizzazione. Il lavoro finale sarà quindi quello di andare ad analizzare, attraverso un confronto con le Indicazioni Nazionali per il Liceo Scientifico e con alcune esigenze emerse dagli insegnanti, le parti e i modi in cui la tesi risponde a queste richieste.
Resumo:
Lo scopo di questa tesi è valutare l’attività di uptake delle cellule nei confronti di nanoparticelle di silice fluorescenti e il loro possibile effetto citotossico. Per verificare l’attività di uptake delle cellule abbiamo utilizzato 4 diverse linee cellulari tumorali umane e abbiamo studiato il comportamento delle nanoparticelle all’interno delle cellule grazie all’utilizzo del microscopio a fluorescenza, con cui abbiamo potuto valutare se le particelle sono in grado di penetrare nel nucleo, soprattutto ad alte concentrazioni o a lunghi tempi di incubazione. Per questa valutazione abbiamo effettuato incubazioni a concentrazioni crescenti di nanoparticelle e a tempi di incubazione sempre più lunghi. Inoltre, abbiamo coltivato le cellule sia in condizioni di crescita ottimali, addizionando il terreno con FBS, che in condizioni subottimali, senza l’aggiunta di FBS nel terreno, perché abbiamo ipotizzato che le proteine presenti nell’FBS potessero disporsi come una corona esternamente alle cellule, ostacolando l’uptake delle nanoparticelle. Infine, abbiamo valutato se le diverse linee cellulari avessero dei comportamenti diversi nei confronti dell’internalizzazione delle nanoparticelle. Per quanto riguarda la valutazione di un possibile effetto citotossico delle nanoparticelle, invece, abbiamo effettuato dei saggi di vitalità cellulare, anche in questo caso utilizzando 4 linee cellulari differenti. Come per l’analisi in microscopia, abbiamo effettuato l’incubazione a concentrazioni crescenti di nanoparticelle, a tempi di incubazione sempre più lunghi e in condizioni ottimali, aggiungendo FBS al terreno, o subottimali, senza FBS. Queste variazioni nelle condizioni di incubazione erano necessarie per capire se la vitalità cellulare potesse dipendere da un’alta concentrazione di nanoparticelle, da lunghi tempi di incubazione e dalla presenza o assenza di FBS e se l’effetto fosse diverso a seconda della linea cellulare sottoposta al trattamento.
Resumo:
I Gangli della Base svolgono un ruolo molto importante nel movimento volontario, ovvero nel meccanismo di azione-selezione, e la loro influenza è evidente soprattutto in alcune patologie che ancora ad oggi sono in fase di studio: una di queste è il Morbo di Parkinson. I Gangli della Base comprendono quattro formazioni nervose: lo striato, il globus pallidus, la substantia nigra e il nucleo subtalamico: essi ricevono le principali afferenze dalla corteccia cerebrale ed inviano le principali efferenze al tronco dell’encefalo, e, per mezzo del talamo, alle corteccia prefrontale, premotoria e motrice. A differenza della maggior parte delle altre componenti dei sistemi motori, i Gangli della Base non stabiliscono direttamente né connessioni afferenti, né efferenti con il midollo spinale. Il compito principale svolto dai Gangli dDella Base è la selezione di un’azione: esso permette ad un’azione di essere selezionata rispetto ad un’altra, che in questo modo viene inibita. La descrizione dell’anatomia, dei meccanismi fisiologici e del Morbo di Parkinson è trattata nel Capitolo 1. In questo elaborato è utilizzato il modello computazionale di Mauro Ursino e Chiara Baston, che sarà illustrato dettagliatamente nel Capitolo 2, riguardante il meccanismo di azione-selezione svolto dai Gangli della Base. E’ descritto un sistema di valutazione di un paziente parkinsoniano, il tapping test: esso consiste in un movimento alternato del dito e ad oggi risulta essere uno dei metodi più semplici per ottenere informazioni sulla gravità della bradicinesia. L’obiettivo di questo lavoro è quello di comprendere, tramite l’analisi di simulazioni effettuate per mezzo del modello computazionale di Mauro Ursino e Chiara Baston, come la frequenza di tapping dipenda dal variare di alcuni parametri delle equazioni del modello: gli effetti dovuti alla variazione di un singolo parametro o più di uno, saranno mostrati nel Capitolo 3.
Resumo:
In questo studio, un multi-model ensemble è stato implementato e verificato, seguendo una delle priorità di ricerca del Subseasonal to Seasonal Prediction Project (S2S). Una regressione lineare è stata applicata ad un insieme di previsioni di ensemble su date passate, prodotte dai centri di previsione mensile del CNR-ISAC e ECMWF-IFS. Ognuna di queste contiene un membro di controllo e quattro elementi perturbati. Le variabili scelte per l'analisi sono l'altezza geopotenziale a 500 hPa, la temperatura a 850 hPa e la temperatura a 2 metri, la griglia spaziale ha risoluzione 1 ◦ × 1 ◦ lat-lon e sono stati utilizzati gli inverni dal 1990 al 2010. Le rianalisi di ERA-Interim sono utilizzate sia per realizzare la regressione, sia nella validazione dei risultati, mediante stimatori nonprobabilistici come lo scarto quadratico medio (RMSE) e la correlazione delle anomalie. Successivamente, tecniche di Model Output Statistics (MOS) e Direct Model Output (DMO) sono applicate al multi-model ensemble per ottenere previsioni probabilistiche per la media settimanale delle anomalie di temperatura a 2 metri. I metodi MOS utilizzati sono la regressione logistica e la regressione Gaussiana non-omogenea, mentre quelli DMO sono il democratic voting e il Tukey plotting position. Queste tecniche sono applicate anche ai singoli modelli in modo da effettuare confronti basati su stimatori probabilistici, come il ranked probability skill score, il discrete ranked probability skill score e il reliability diagram. Entrambe le tipologie di stimatori mostrano come il multi-model abbia migliori performance rispetto ai singoli modelli. Inoltre, i valori più alti di stimatori probabilistici sono ottenuti usando una regressione logistica sulla sola media di ensemble. Applicando la regressione a dataset di dimensione ridotta, abbiamo realizzato una curva di apprendimento che mostra come un aumento del numero di date nella fase di addestramento non produrrebbe ulteriori miglioramenti.
Resumo:
Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.