998 resultados para decomposizione in fattori primi JSJ classificazione varietà fibrati di Seifert
Resumo:
Negli ultimi anni la necessità di processare e mantenere dati di qualsiasi natura è aumentata considerevolmente, in aggiunta a questo, l’obsolescenza del modello centralizzato ha contribuito alla sempre più frequente adozione del modello distribuito. Inevitabile dunque l’aumento di traffico che attraversa i nodi appartenenti alle infrastrutture, un traffico sempre più in aumento e che con l’avvento dell’IoT, dei Big Data, del Cloud Computing, del Serverless Computing etc., ha raggiunto picchi elevatissimi. Basti pensare che se prima i dati erano contenuti in loco, oggi non è assurdo pensare che l’archiviazione dei propri dati sia completamente affidata a terzi. Così come cresce, quindi, il traffico che attraversa i nodi facenti parte di un’infrastruttura, cresce la necessità che questo traffico sia filtrato e gestito dai nodi stessi. L’obbiettivo di questa tesi è quello di estendere un Message-oriented Middleware, in grado di garantire diverse qualità di servizio per la consegna di messaggi, in modo da accelerarne la fase di routing verso i nodi destinazione. L’estensione consiste nell’aggiungere al Message-oriented Middleware, precedentemente implementato, la funzione di intercettare i pacchetti in arrivo (che nel caso del middleware in questione possono rappresentare la propagazione di eventi) e redirigerli verso un nuovo nodo in base ad alcuni parametri. Il Message-oriented Middleware oggetto di tesi sarà considerato il message broker di un modello pub/sub, pertanto la redirezione deve avvenire con tempi molto bassi di latenza e, a tal proposito, deve avvenire senza l’uscita dal kernel space del sistema operativo. Per questo motivo si è deciso di utilizzare eBPF, in particolare il modulo XDP, che permette di scrivere programmi che eseguono all’interno del kernel.
Resumo:
L’elaborato ha l’obiettivo di fornire una panoramica piuttosto dettagliata sulla Telemedicina, le prestazioni erogabili in tale modalità ed il quadro normativo vigente, focalizzandosi sulla configurazione e presentazione di un software adibito all’erogazione di Televisite. Il primo capitolo assume un ruolo introduttivo nei confronti della Telemedicina, delle sue applicazioni, dei principali drivers, dei benefici e delle opportunità e dei rischi e delle criticità, correlati all’introduzione di prestazioni erogate in tale modalità. Il secondo capitolo si orienta inizialmente su un’analisi del quadro normativo vigente le prestazioni di Telemedicina, declinato su tre differenti livelli: Unione Europea, Italia ed Emilia-Romagna; proseguendo poi lo studio riguardo l’assetto normativo ed i requisiti necessari per la progettazione e la messa in commercio di un software sanitario. Il terzo capitolo si propone di presentare ed analizzare la configurazione di un software sanitario, attualmente attivo ed in commercio, adibito all’erogazione di Televisite, ossia un atto sanitario in cui il medico interagisce a distanza con il paziente. Si illustrano analiticamente le diverse prospettive degli attori coinvolti: la struttura sanitaria, il medico erogante ed il paziente ricevente la prestazione in modalità telematica. Ci si sofferma su tutti i processi volti alla corretta erogazione della Televisita: la struttura sanitaria è responsabile delle attività di configurazione di back office e delle procedure lato front office, il paziente della creazione dell’utenza web, della prenotazione e dell’accesso alla stanza virtuale ed il medico dell’accesso alla stanza virtuale, dell’erogazione della prestazione e della redazione del referto. Durante l’illustrazione delle procedure dalle diverse prospettive viene fornita anche un’analisi dell'applicativo, soffermandosi su alcune sue caratteristiche fondamentali, tipiche di un software sanitario.
Resumo:
L’elaborato si pone l’obiettivo di realizzare e validare dei campioni in resina epossidica per la rilevazione di attività di scariche parziali interne. Nella prima fase dell’attività di ricerca, sono definite le linee progettuali riguardanti la scelta dei materiali da utilizzare, al fine di creare degli stampi per poter ottenere dei campioni di forma idonea e, successivamente, si procede alla scelta del tipo di resina e degli elettrodi da adoperare. All’interno dei provini, viene iniettata, con una siringa di precisione dotata di un ago sottile, una cavità di aria indicante un eventuale difetto nella matrice polimerica dell’isolante, se sottoposto a un determinato tipo di stress (elettrico, termico, meccanico). I provini sono testati in un circuito di prova ad alto voltaggio per la misura della tensione di innesco alla quale si verificano le scariche; attraverso l’utilizzo di un software specifico, viene poi ricavato il PD pattern utile per l’approccio all’identificazione della tipologia di scarica. Inoltre, sono effettuate delle simulazioni con l’ambiente di calcolo Comsol ottenendo il valore del campo elettrico all’interno della cavità di aria. Il PD pattern viene, in seguito, analizzato estrapolando dei marker statistici di interesse per l’applicazione della fuzzy logic. Questa tipologia di logica prevede la verifica di regole linguistiche per la corretta identificazione del tipo di scarica, individuata dal pattern in esame (interna, superficiale o corona). A seconda dei valori ricavati dai marker, vengono applicate le regole della fuzzy logic per poter classificare, nei campioni esaminati, l’attività di scarica parziale come interna.
Resumo:
In the recent decades, robotics has become firmly embedded in areas such as education, teaching, medicine, psychology and many others. We focus here on social robotics; social robots are designed to interact with people in a natural and interpersonal way, often to achieve positive results in different applications. To interact and cooperate with humans in their daily-life activities, robots should exhibit human-like intelligence. The rapid expansion of social robotics and the existence of various kinds of robots on the market have allowed research groups to carry out multiple experiments. The experiments carried out have led to the collections of various kinds of data, which can be used or processed for psychological studies, and studies in other fields. However, there are no tools available in which data can be stored, processed and shared with other research groups. This thesis proposes the design and implementation of visual tool for organizing dataflows in Human Robot Interaction (HRI).
Resumo:
Nello studio condotto si è voluto indagare in modo preliminare la fattibilità dal punto di vista normativo e tecnico di attuare operazioni di recupero di materia su scarti prodotti dagli stabilimenti di molluschicoltura di Goro, con il fine di inserirli in un progetto più ampio di costruzione di barriere sommerse a protezione del litorale. Attraverso dati produttivi è stato analizzato innanzitutto il contesto territoriale nel quale si colloca questa attività. E' stato ripercorso il destino ambientale che attende gli scarti in uscita all'impianto e con l'ausilio delle normative in materia di rifiuti si è cercato di delineare possibili scenari migliorativi rientranti nei principi dell'economia circolare, mostrandone i rispettivi vantaggi e requisiti. Ipotizzata l'alternativa migliore, infine si sono studiate le caratteristiche tecniche del capulerio al fine di destinarlo ad un impiego in campo edile, attraverso prove condotte in laboratorio e studi presenti in letteratura.
Resumo:
The goal of this thesis was the study of an optimal vertical mixing parameterization scheme in a mesoscale dominated field characterized from a strong vorticity and the presence of a layer of colder, less saline water at about 100 m depth (Atlantic Waters); in these conditions we compared six different experiments, that differ by the turbulent closure schemes, the presence or not of an enhanced diffusion parameterization and the presence or not of a double diffusion mixing parameterization. To evaluate the performance of the experiments and the model we compared the simulations with the ARGO observations of temperature and salinity available in our domain, in our period of interest. The conclusions were the following: • the increase of the resolution gives better results in terms of temperature in all the considered cases, and in terms of salinity. • The comparisons between the Pacanovski-Philander and the TKE turbulent closure schemes don’t show significant differences when the simulations are compared to the observations. • The removing of the enhanced diffusion parameterization in presence of the TKE turbulent closure submodel doesn’t give positive results, and show limitations in the resolving of gravitational instabilities near the surface • The k-ϵ turbulent closure model utilized in all the GLS experiments, is the best performing closure model among the three considered, with positive results in all the salinity comparison with the in situ observation and in most of the temperature comparisons. • The double mixing parameterization utilized in the k-ϵ closure submodel improves the results of the experiments improving both the temperature and salinity in comparison with the ARGO data.
Resumo:
Si studia il comportamento di particelle in un tipo particolare di biliardo dinamico, in cui le riflessioni sul bordo avvengono attraverso l’inversione dell’angolo che la traiettoria compie rispetto a una direzione verticale fissata, invece della solita normale alla curva à la Fresnel. L'interesse in questo argomento deriva dall'evidenza sperimentale di un comportamento simile nella propagazione di onde entro fluidi stratificati: questa tipologia di biliardo è quindi spesso detta biliardo di onde interne. Lo studio di questi oggetti, sebbene puramente matematico, può dare luogo a peculiari considerazioni fisiche ed applicative. Notevolmente, la frequente presenza di attrattori in tali modelli suggerisce che fenomeni di concentrazione delle onde interne dovuti a tale regola di riflessione potrebbero avere un ruolo in alcuni sistemi reali, come la circolazione oceanica. Dopo aver passato in rassegna alcuni elementi della teoria di Poincaré degli omeomorfismi del cerchio, e alcuni risultati specifici sui biliardi di onde interne, si studia il caso particolare di un biliardo di forma parabolica, tagliato da un segmento normale al suo asse di simmetria. In quest'ultimo contesto, si dimostrano alcuni risultati originali sul comportamento delle traiettorie.
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Le perovskiti ibride ad alogenuri costituiscono una classe di materiali con proprietà elettroniche e bassi costi di fabbricazione tali da renderle ottime candidate per applicazioni quali la produzione di celle solari, detector, LED e laser. L’impiego pratico delle perovskiti tuttavia è limitato: i dispositivi basati su questi materiali sono instabili a causa della spiccata reattività con l’ambiente esterno, come umidità e ossigeno. Nelle perovskiti inoltre la conduzione non è solo elettronica, ma anche ionica, caratteristica che contribuisce alla rapida degradazione dei materiali. In questa tesi si vuole studiare il contributo del trasporto ionico ed elettronico alla corrente nella perovskite MAPbBr3 (tribromuro di metilammonio piombo) e la reattività di tale materiale con l’ambiente. A tal proposito si usa la tecnica Intensity Modulated Photocurrent Spectroscopy (IMPS), che consiste nel misurare la fotocorrente prodotta da un dispositivo optoelettronico in funzione della frequenza di modulazione di una sorgente luminosa, quale LED o laser. Si ripetono le misure IMPS in aria, vuoto e argon, per studiare l’impatto dell’atmosfera sulla risposta del campione. Con un apposito software si esegue il fit dei dati sperimentali e si estrapolano i tempi caratteristici dei portatori di carica: si ottengono valori dell’ordine del μs per elettroni e lacune, del s per gli ioni mobili. Si confronta quindi il comportamento del campione nelle varie atmosfere. Si evince come in aria sia presente un maggior numero di specie ioniche che migrano nel materiale rispetto ad atmosfere controllate come il vuoto e l’argon. Tali specie sono associate a ioni mobili che si formano in seguito all’interazione del materiale con molecole di ossigeno e acqua presenti nell’ambiente.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.
Resumo:
A seguito di recenti risultati nel campo dell’Astrofisica, con questo elaborato ci si propone di approfondire il ruolo della viscosità in una classe di modelli cosmologici. La discussione ha lo scopo di generalizzare delle tecniche applicate con successo nello studio dei fluidi ideali a sistemi dove anche la viscosità é un parametro che necessita di essere largamente preso in considerazione. Nello specifico, ci si serve di strumenti computazionali e geometrici e di teoria delle equazioni differenziali alle derivate parziali per comprendere, da un punto di vista matematico, come associare le Equazioni di Einstein ai fluidi in specifici background cosmologici. Questo elaborato parte dallo studio dei fluidi ideali in un background di tipo FLRW al fine di generalizzarlo a fluidi viscosi che scorrono in un background di tipo Bianchi I. Infine si indicano alcuni problemi ancora aperti relativi al caso dissipativo e le possibili strategie risolutive di tali questioni.
Resumo:
Il morbo di Alzheimer è ancora una malattia incurabile. Negli ultimi anni l'aumento progressivo dell'aspettativa di vita ha contribuito a un'insorgenza maggiore di questa patologia, specialmente negli stati con l'età media più alta, tra cui l'Italia. La prevenzione risulta una delle poche vie con cui è possibile arginarne lo sviluppo, ed in questo testo vengono analizzate le potenzialità di alcune tecniche di Machine Learning atte alla creazione di modelli di supporto diagnostico per Alzheimer. Dopo un'opportuna introduzione al morbo di Alzheimer ed al funzionamento generale del Machine Learning, vengono presentate e approfondite due delle tecniche più promettenti per la diagnosi di patologie neurologiche, ovvero la Support Vector Machine (macchina a supporto vettoriale, SVM) e la Convolutional Neural Network (rete neurale convoluzionale, CNN), con annessi risultati, punti di forza e principali debolezze. La conclusione verterà sul possibile futuro delle intelligenze artificiali, con particolare attenzione all'ambito sanitario, e verranno discusse le principali difficoltà nelle quali queste incombono prima di essere commercializzate, insieme a plausibili soluzioni.
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
Siamo sempre stati abituati fin dal principio ad interagire con l’ambiente che ci circonda, utilizzando gli oggetti fisici presenti attorno a noi per soddisfare le nostre esigenze, ma se esistesse di più di questo? Se fosse possibile avere attorno a noi oggetti che non sono propriamente corpi fisici, ma che hanno un comportamento coerente con l’ambiente circostante e non venisse percepita la differenza tra essi e un vero e proprio oggetto? Ci si sta riferendo a quella che oggi viene chiamata Mixed Reality, una realtà mista resa visibile tramite appositi dispositivi, in cui è possibile interagire contemporaneamente con oggetti fisici e oggetti digitali che vengono chiamati ologrammi. Un aspetto fondamentale che riguarda questa tipologia di sistemi è sicuramente la collaborazione. In questa tesi viene esaminato il panorama delle tecnologie allo stato dell'arte che permettono di vivere esperienze di Collaborative Mixed Reality, ma soprattutto ci si concentra sulla progettazione di una vera e propria architettura in rete locale che consenta la realizzazione di un sistema condiviso. Successivamente all'applicazione di varie strategie vengono valutati i risultati ottenuti da rigorose misurazioni, per determinare scientificamente le prestazioni dell'architettura progettata e poter trarre delle conclusioni, considerando analogie e differenze rispetto ad altre possibili soluzioni.