333 resultados para Algebre monounarie, ordine, classificazione
Resumo:
Da sempre l'uomo ha osservato le stelle e il primo a intuire che lo studio degli spettri avrebbe permesso la comprensione della fisica e della chimica delle stelle fu il padre gesuita Secchi. Uno spettro contiene informazioni sui vari processi atmosferici stellari, dove la profondità e la forma di una riga permettono di raccogliere dati sulle condizioni fisiche del gas nelle regioni in cui essa si è formata. La classificazione spettrale è iniziata con il padre gesuita Secchi, che divise le stelle in quattro categorie. In seguito fu sostituita dalla classificazione di Harvard, composta da sette classi, O, B, A, F, G, K, M, caratterizzate da diversi range di temperature. Per risolvere il problema delle diverse luminosità all'interno della stessa classe, Yerkes creó u a nuova classificazione, data da un sistema bidimensionale che oltre a considerare la temperatura tiene conto della luminosità, che influisce molto nella struttura dello spettro. Si sono presi in considerazione anche gli spettri peculiari, cioè che presentano delle anomalie, come un'insolita abbondanza di metalli. Nell'ultimo capitolo viene trattato il diagramma H-R come applicazione delle classificazioni spettrali, accennando come il punto di turn-off del diagramma permetta di calcolare l'età di un ammasso stellare.
Resumo:
Nel presente lavoro è affrontato lo studio delle curve ellittiche viste come curve algebriche piane, più precisamente come cubiche lisce nel piano proiettivo complesso. Dopo aver introdotto nella prima parte le nozioni di Superfici compatte e orientabili e curve algebriche, tramite il teorema di classificazione delle Superfici compatte, se ne fornisce una preliminare classificazione basata sul genere della superficie e della curva, rispettivamente. Da qui, segue la definizione di curve ellittiche e uno studio più dettagliato delle loro pricipali proprietà, quali la possibilità di definirle tramite un'equazione affine nota come equazione di Weierstrass e la loro struttura intrinseca di gruppo abeliano. Si fornisce quindi un'ulteriore classificazione delle cubiche lisce, totalmente differente da quella precedente, che si basa invece sul modulo della cubica, invariante per trasformazioni proiettive. Infine, si considera un aspetto computazionale delle curve ellittiche, ovvero la loro applicazione nel campo della Crittografia. Grazie alla struttura che esse assumono sui campi finiti, sotto opportune ipotesi, i crittosistemi a chiave pubblica basati sul problema del logaritmo discreto definiti sulle curve ellittiche, a parità di sicurezza rispetto ai crittosistemi classici, permettono l'utilizzo di chiavi più corte, e quindi meno costose computazionalmente. Si forniscono quindi le definizioni di problema del logaritmo discreto classico e sulle curve ellittiche, ed alcuni esempi di algoritmi crittografici classici definiti su quest'ultime.
Resumo:
Negli ultimi due anni, per via della pandemia generata dal virus Covid19, la vita in ogni angolo del nostro pianeta è drasticamente cambiata. Ad oggi, nel mondo, sono oltre duecentoventi milioni le persone che hanno contratto questo virus e sono quasi cinque milioni le persone decedute. In alcuni periodi si è arrivati ad avere anche un milione di nuovi contagiati al giorno e mediamente, negli ultimi sei mesi, questo dato è stato di più di mezzo milione al giorno. Gli ospedali, soprattutto nei paesi meno sviluppati, hanno subito un grande stress e molte volte hanno avuto una carenza di risorse per fronteggiare questa grave pandemia. Per questo motivo ogni ricerca in questo campo diventa estremamente importante, soprattutto quelle che, con l'ausilio dell'intelligenza artificiale, riescono a dare supporto ai medici. Queste tecnologie una volta sviluppate e approvate possono essere diffuse a costi molto bassi e accessibili a tutti. In questo elaborato sono stati sperimentati e valutati due diversi approcci alla diagnosi del Covid-19 a partire dalle radiografie toraciche dei pazienti: il primo metodo si basa sul transfer learning di una rete convoluzionale inizialmente pensata per la classificazione di immagini. Il secondo approccio utilizza i Vision Transformer (ViT), un'architettura ampiamente diffusa nel campo del Natural Language Processing adattata ai task di Visione Artificiale. La prima soluzione ha ottenuto un’accuratezza di 0.85 mentre la seconda di 0.92, questi risultati, soprattutto il secondo, sono molto incoraggianti soprattutto vista la minima quantità di dati di training necessaria.
Resumo:
Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.
Resumo:
Con il crescente utilizzo delle reti wireless la sicurezza e l'affidabilità del servizio stanno diventando requisiti fondamentali da garantire. Questo studio ha come obiettivi il rilevamento di un attacco jammer e la classificazione della tipologia dell'attacco (reattivo, random e periodico) in una rete wireless in cui gli utenti comunicano con un access point tramite il protocollo random access slotted Aloha. La classificazione degli attacchi è infatti fondamentale per attuare le dovute contromisure ed evitare cali di performance nella rete. Le metriche estratte, fra cui la packet delivery ratio (PDR) e la rispettiva analisi spettrale, il rapporto segnale rumore medio e la varianza dell'rapporto segnale rumore, sono risultate essere efficaci nella classificazione dei jammers. In questo elaborato è stato implementato un sistema di detection e classificazione di jammer basato su machine learning, che ha permesso di ottenere una accuratezza complessiva del 92.5% nella classificazione ed una probabilità di detection superiore al 95% per valori di PDR inferiori o uguali al 70%.
Resumo:
In questo elaborato che conclude il Corso di Laurea in Astronomia vengono presentate le classificazioni spettrali di Harvard e di Yerkes, osservando anche i motivi per cui storicamente assumono il loro aspetto. Vengono poi analizzati i processi fisici che danno forma agli spettri permettendo di caratterizzarli gli uni dagli altri. In conclusione vengono osservate le tecniche osservative necessarie all'analisi dei dati.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Il TinyMachineLearning (TinyML) è un campo di ricerca nato recentemente che si inserisce nel contesto dell’Internet delle cose (IoT). Mentre l’idea tradizionale dell’IoT era che i dati venissero inviati da un dispositivo locale a delle infrastrutture cloud per l’elaborazione, il paradigma TinyML d’altra parte, propone di integrare meccanismi basati sul Machine Learning direttamente all’interno di piccoli oggetti alimentati da microcontrollori (MCU ). Ciò apre la strada allo sviluppo di nuove applicazioni e servizi che non richiedono quindi l’onnipresente supporto di elaborazione dal cloud, che, come comporta nella maggior parte dei casi, consumi elevati di energia e rischi legati alla sicurezza dei dati e alla privacy. In questo lavoro sono stati svolti diversi esperimenti cercando di identificare le sfide e le opportunità correlate al TinyML. Nello specifico, vengono valutate e analizzate le prestazioni di alcuni algoritmi di ML integrati in una scheda Arduino Nano 33 BLE Sense, attraverso un framework TinyML. Queste valutazioni sono state effettuate conducendo cinque diversi macro esperimenti, ovvero riconoscimento di Colori, di Frequenze, di Vibrazioni, di Parole chiave e di Gesti. In ogni esperimento, oltre a valutare le metriche relative alla bontà dei classificatori, sono stati analizzati l’occupazione di memoria e il tasso di inferenza (tempo di predizione). I dati utilizzati per addestrare i classificatori sono stati raccolti direttamente con i sensori di Arduino Nano. I risultati mostrano che il TinyML può essere assolutamente utilizzato per discriminare correttamente tra diverse gamme di suoni, colori, modelli di vibrazioni, parole chiave e gesti aprendo la strada allo sviluppo di nuove promettenti applicazioni sostenibili.
Resumo:
Il tema della biodiversità sta assumendo sempre più importanza negli ultimi decenni a causa delle condizioni di rischio, dovute alle attività umane, a cui l'intero mondo naturale è costantemente sottoposto. In questo contesto diventa sempre più importante l'educazione ambientale per aumentare la consapevolezza delle persone e per far si che ognuno possa adottare i dovuti accorgimenti nel rispetto e nella preservazione della natura. Questo progetto nasce con l'obiettivo di approfondire il tema della sensibilizzazione, attraverso lo sviluppo di una applicazione nativa android in grado di classificare gli insetti impollinatori e che, grazie all'integrazione di elementi di gamification, sia in grado di motivare l'utente ad approfondire le proprie conoscenze. Il progetto di tesi è suddiviso in tre capitoli: il primo descrive i concetti di biodiversità, gamification e citizen science su cui si basa l'elaborato; il secondo capitolo rappresenta la fase di progettazione per strutturare il database, le interfacce grafiche e per capire le tecnologie migliore da utilizzare; infine il terzo capitolo mostra l'implementazione completa del progetto, descrivendone nel dettaglio le funzionalità.
Resumo:
I recenti sviluppi nel campo dell’intelligenza artificiale hanno permesso una più adeguata classificazione del segnale EEG. Negli ultimi anni è stato dimostrato come sia possibile ottenere ottime performance di classificazione impiegando tecniche di Machine Learning (ML) e di Deep Learning (DL), facendo uso, per quest’ultime, di reti neurali convoluzionali (Convolutional Neural Networks, CNN). In particolare, il Deep Learning richiede molti dati di training mentre spesso i dataset per EEG sono limitati ed è difficile quindi raggiungere prestazioni elevate. I metodi di Data Augmentation possono alleviare questo problema. Partendo da dati reali, questa tecnica permette, la creazione di dati artificiali fondamentali per aumentare le dimensioni del dataset di partenza. L’applicazione più comune è quella di utilizzare i Data Augmentation per aumentare le dimensioni del training set, in modo da addestrare il modello/rete neurale su un numero di campioni più esteso, riducendo gli errori di classificazione. Partendo da questa idea, i Data Augmentation sono stati applicati in molteplici campi e in particolare per la classificazione del segnale EEG. In questo elaborato di tesi, inizialmente, vengono descritti metodi di Data Augmentation implementati nel corso degli anni, utilizzabili anche nell’ambito di applicazioni EEG. Successivamente, si presentano alcuni studi specifici che applicano metodi di Data Augmentation per migliorare le presentazioni di classificatori basati su EEG per l’identificazione dello stato sonno/veglia, per il riconoscimento delle emozioni, e per la classificazione di immaginazione motoria.
Resumo:
La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.
Resumo:
Partendo da un'introduzione storica, verrà presentato un approfondimento nel dettaglio della classificazione di Harvard, per poi vedere come essa sia connessa ad uno dei diagrammi più importanti per l'astrofisica stellare, il diagramma H-R. Seguirà poi una presentazione della classificazione di Yerkes e una trattazione sul concetto di tempratura stellare. Infine verrà presentata una ricerca sulla possibile abitabilità planetaria nei sistemi solari in base alla classe stellare.
Resumo:
La tesi nasce da una collaborazione di ricerca, attiva da anni, tra il DISTART - Area Topografia ed il Dipartimento di Archeologia dell’Università di Bologna, impegnato da lungo tempo in scavi archeologici nella regione egiziana del Fayyum. Lo scopo di questa tesi è offrire un contributo alla creazione di un database multiscala di informazioni georeferenziate, che possa essere di supporto ad ulteriori approfondimenti sul territorio del Fayyum. Il raggiungimento degli obiettivi preposti è stato perseguito mediante l’utilizzo sistematico di algoritmi di classificazione su immagini satellitari a media risoluzione registrate ed ortorettificate. Per quanto riguarda la classificazione litologica, sulla base delle informazioni presenti in letteratura, è stata ottenuta una mappa della fascia desertica che circonda l’oasi, in cui sono distinte diverse tipologie: sabbie sciolte recenti, arenarie mioceniche, calcareniti dell’Eocene superiore, calcari dell’Eocene medio, basalti tardo-oligocenici. Inoltre è stata messa a punto una procedura per giungere ad una classificazione almeno in parte automatica di anomalie sul terreno che presentano una forma lineare. L’applicazione di questa procedura potrà rivelarsi utile per ulteriori indagini finalizzate alla individuazione di paleocanali, naturali o artificiali, ed alla ricostruzione dell’assetto idrografico nel passato.
Resumo:
In questa tesi si è voluta porre l’attenzione sulla suscettibilità alle alte temperature delle resine che li compongono. Lo studio del comportamento alle alte temperature delle resine utilizzate per l’applicazione dei materiali compositi è risultato un campo di studio ancora non completamente sviluppato, nel quale c’è ancora necessità di ricerche per meglio chiarire alcuni aspetti del comportamento. L’analisi di questi materiali si sviluppa partendo dal contesto storico, e procedendo successivamente ad una accurata classificazione delle varie tipologie di materiali compositi soffermandosi sull’ utilizzo nel campo civile degli FRP (Fiber Reinforced Polymer) e mettendone in risalto le proprietà meccaniche. Considerata l’influenza che il comportamento delle resine riveste nel comportamento alle alte temperature dei materiali compositi si è, per questi elementi, eseguita una classificazione in base alle loro proprietà fisico-chimiche e ne sono state esaminate le principali proprietà meccaniche e termiche quali il modulo elastico, la tensione di rottura, la temperatura di transizione vetrosa e il fenomeno del creep. Sono state successivamente eseguite delle prove sperimentali, effettuate presso il Laboratorio Resistenza Materiali e presso il Laboratorio del Dipartimento di Chimica Applicata e Scienza dei Materiali, su dei provini confezionati con otto differenti resine epossidiche. Per valutarne il comportamento alle alte temperature, le indagini sperimentali hanno valutato dapprima le temperature di transizione vetrosa delle resine in questione e, in seguito, le loro caratteristiche meccaniche. Dalla correlazione dei dati rilevati si sono cercati possibili legami tra le caratteristiche meccaniche e le proprietà termiche delle resine. Si sono infine valutati gli aspetti dell’applicazione degli FRP che possano influire sul comportamento del materiale composito soggetto alle alte temperature valutando delle possibili precauzioni che possano essere considerate in fase progettuale.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.