980 resultados para spazi Hilbert,operatori lineari,operatori autoaggiunti
Resumo:
In this thesis we explore the combinatorial properties of several polynomials arising in matroid theory. Our main motivation comes from the problem of computing them in an efficient way and from a collection of conjectures, mainly the real-rootedness and the monotonicity of their coefficients with respect to weak maps. Most of these polynomials can be interpreted as Hilbert--Poincaré series of graded vector spaces associated to a matroid and thus some combinatorial properties can be inferred via combinatorial algebraic geometry (non-negativity, palindromicity, unimodality); one of our goals is also to provide purely combinatorial interpretations of these properties, for example by redefining these polynomials as poset invariants (via the incidence algebra of the lattice of flats); moreover, by exploiting the bases polytopes and the valuativity of these invariants with respect to matroid decompositions, we are able to produce efficient closed formulas for every paving matroid, a class that is conjectured to be predominant among all matroids. One last goal is to extend part of our results to a higher categorical level, by proving analogous results on the original graded vector spaces via abelian categorification or on equivariant versions of these polynomials.
Resumo:
La tesi propone un'analisi del Fascicolo Sanitario Elettronico. Il Fascicolo Sanitario Elettronico è uno strumento che, con la telemedicina e le tecnologie ITC, conforma la Sanità Digitale. La sua funzione principale è l'archiviazione di dati e documenti sanitari, ma l'essere una sorta di digitalizzazione delle cartelle cliniche è solo uno dei compiti dell'FSE, la sua utilità comprende una serie di servizi che mirano a facilitare il tracciamento e monitoraggio degli eventi medici che sperimentano i cittadini. Grazie all'FSE è possibile che medici ed operatori sanitari presso diversi ospedali e cliniche possano apprendere l'intera storia clinica del paziente con un click. Nel 2020, con la diffusione del coronavirus, sono stati evidenziati diversi dei problemi che già erano stati riscontrati nel funzionamento dell'FSE, dunque questo documento si pone l'obiettivo di presentare questa tecnologia, il suo funzionamento attuale, le problematiche, e gli obiettivi che mirano al suo miglioramento. Da qualche anno, diversi paesi in giro per il mondo, si sono interessati nello sviluppo di questa tecnologia, con lo scopo di modernizzare e migliorare la salute pubblica, ma, in seguito alla diffusione della pandemia, il fascicolo si è ritrovato al centro dell'attenzione dell'universo sanitario, perciò la decisione di trattare questo tema attualissimo.
Resumo:
Vista l’attuale condizione del nostro pianeta, si ha la necessità di ridurre l’impatto ambientale e salvaguardare gli aspetti economici e sociali, mantenendo e favorendo la biodiversità e l’ecosistema. L’obiettivo di questa tesi è quello di mostrare come la tecnologia, in particolare gli strumenti interattivi, possano migliorare la condizione delle nostre vite e del pianeta. Nella prima parte ci si concentrerà sull’analisi degli strumenti multimediali interattivi, come kiosk, videowall e LIM. Poi si passerà ad illustrare la storia della sostenibilità, in che modo si sia arrivati a tale concetto e soprattutto si farà riferimento a tutte le leggi e progetti che attualmente la interessano. Nell’ultimo capitolo ci presenterà una panoramica di applicazione degli strumenti interattivi volti alla sostenibilità, ma anche accenni a progetti futuri, in particolare a quelli di grandi aziende come Google e Microsoft. Concludendo, sia le grandi realtà, che le piccole attenzioni nella vita quotidiana, servono per perseguire questo obiettivo e la sostenibilità digitale può portare la giusta innovazione, di cui si necessità in questo momento e nel futuro.
Resumo:
I contenuti principali trattati in questa tesi sono stati ispirati da due lavori presentati nel corso dello scorso decennio. Il primo lavoro, pubblicato nel 2013 da O. A. Manita e S. V. Shaposhnikov, presenta un nuovo risultato di esistenza di soluzioni, nel senso delle distribuzioni, che siano misure di probabilità per PDE paraboliche non lineari del primo e secondo ordine. Vengono fornite condizioni sufficienti per l’esistenza locale e globale di tale tipo di soluzioni per il problema di Cauchy associato a tali equazioni. Equazioni di tale tipo compaiono in maniera del tutto naturale in diversi ambiti applicativi, fra cui la finanza matematica. Nel lavoro presentato da G. Tataru e T. Fisher per Bloomberg nel 2010, viene proposto un modello stocastico per la modellazione del tasso di cambio di valuta estera al fine di prezzare dei particolari tipi di opzione, le opzioni a barriera, con le quali modelli più classici faticano maggiormente. Nella calibrazione di tale modello, per "fittare" il modello ai prezzi delle opzioni scambiate sul mercato, sorge il problema di risolvere un’equazione alle derivate parziali parabolica non lineare integro-differenziale e che dunque appartiene alla classe di PDE citata precedentemente.
Resumo:
Il seguente lavoro si propone come analisi degli operatori convoluzionali che caratterizzano le graph neural networks. ln particolare, la trattazione si divide in due parti, una teorica e una sperimentale. Nella parte teorica vengono innanzitutto introdotte le nozioni preliminari di mesh e convoluzione su mesh. In seguito vengono riportati i concetti base del geometric deep learning, quali le definizioni degli operatori convoluzionali e di pooling e unpooling. Un'attenzione particolare è stata data all'architettura Graph U-Net. La parte sperimentare riguarda l'applicazione delle reti neurali e l'analisi degli operatori convoluzionali applicati al denoising di superfici perturbate a causa di misurazioni imperfette effettuate da scanner 3D.
Resumo:
L'elaborato illustra il percorso di evoluzione e affermazione della società di produzione e distribuzione cinematografica A24, nel contesto dell'odierna industria indipendente nordamericana. L'analisi prende in considerazione i presupposti storici e industriali che hanno favorito la nascita di A24, osservando poi i principali sviluppi manageriali, economici e artistici che hanno caratterizzato l'attività dello studio fino a oggi. La trattazione contestualizza l'operato dello studio all'interno dello scenario indipendente delineatosi tra la fine degli anni '80 e i primi anni duemila, enfatizzando le specificità e i punti di forza del modello di business di A24. Particolare attenzione è riservata alla costruzione e alla progressiva affermazione identitaria di A24 come brand riconoscibile e capace di fidelizzare significativi segmenti di audience. Lo studio dedica infatti ampio spazio a un'analisi delle metodologie di posizionamento adottate da A24 all'interno del mercato indipendente, prendendo in considerazione tanto la tipologia di proposta cinematografica offerta dallo studio, quanto le innovative ed efficaci modalità che ne favoriscono la circolazione presso il pubblico. La trattazione intende dunque individuare le principali ragioni del successo riscontrato dal modello A24, anche allo scopo di mettere in luce i meccanismi che regolano l'industria indipendente nordamericana, attualmente segnata da radicali cambiamenti imputabili all'ascesa degli operatori OTT, al parziale riposizionamento della sala all'interno del ciclo di sfruttamento commerciale del film e, negli ultimi mesi, alla crisi sistemica dettata dal Covid-19.
Resumo:
In questo lavoro estendiamo concetti classici della geometria Riemanniana al fine di risolvere le equazioni di Maxwell sul gruppo delle permutazioni $S_3$. Cominciamo dando la strutture algebriche di base e la definizione di calcolo differenziale quantico con le principali proprietà. Generalizziamo poi concetti della geometria Riemanniana, quali la metrica e l'algebra esterna, al caso quantico. Tutto ciò viene poi applicato ai grafi dando la forma esplicita del calcolo differenziale quantico su $\mathbb{K}(V)$, della metrica e Laplaciano del secondo ordine e infine dell'algebra esterna. A questo punto, riscriviamo le equazioni di Maxwell in forma geometrica compatta usando gli operatori e concetti della geometria differenziale su varietà che abbiamo generalizzato in precedenza. In questo modo, considerando l'elettromagnetismo come teoria di gauge, possiamo risolvere le equazioni di Maxwell su gruppi finiti oltre che su varietà differenziabili. In particolare, noi le risolviamo su $S_3$.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Questo lavoro nasce dal mio interesse verso la problematica dello spopolamento ed abbandono dei piccoli centri urbani, che caratterizza le aree interne italiane. Il tema sarà investigato a partire dall’analisi del borgo di Palma di Montechiaro, che ben si presta ad evidenziare come i progetti condivisi possano migliorare la qualità della vita dei piccoli centri urbani. Palma di Montechiaro, arroccata sulle pendici di una lieve altura, nell’ultimo decennio, facendo leva sullo spirito intraprendente di tanti cittadini e di una classe politica competente, è riuscita a superare questioni come il calo demografico dovuto alle scarse nascite, il processo di emigrazione, la mancanza di opportunità, la carenza di servizi ed offrire alla popolazione una qualità della vita migliore e nuove opportunità.
Resumo:
La presente tesi si propone di mostrare che l’oscillatore armonico quantistico dipendente dal tempo è un sistema risolvibile in maniera esatta. La trattazione è articolata in tre capitoli: nel primo viene richiamata la teoria dell’oscillatore armonico quantistico indipendente dal tempo, al fine di recuperare i concetti e le metodologie che sono comuni anche alla sua controparte dipendente dal tempo. Nel secondo capitolo viene fornita una breve introduzione alla teoria degli operatori invarianti dipendenti dal tempo, di cui ci interessa la loro relazione con le soluzioni dell’equazione di Schrödinger. Infine, nel terzo capitolo viene presentato il problema dell’oscillatore armonico quantistico dipendente dal tempo e discussa la sua soluzione esatta. In aggiunta se ne individuano gli stati coerenti.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
Gli integratori esponenziali costituiscono un'ampia classe di metodi numerici per la risoluzione di equazioni differenziali ordinarie. I primi esempi risalgono a ottanta anni fa e vennero introdotti per la prima volta da Certaine e Pope, ma non hanno avuto un ruolo importante nelle applicazioni per molto tempo, in quanto fanno uso esplicito dell'esponenziale di matrice o di funzioni di matrici di grandi dimensioni. Originariamente, tali metodi vennero sviluppati per problemi stiff e successivamente vennero applicati a equazioni differenziali alle derivate parziali; l'applicazione degli integratori esponenziali a problemi di notevole rilevanza diede inizio a un rigoroso approfondimento teorico e alla costruzione di nuove classi, ad esempio con ordine di convergenza maggiore. I primi modelli di integratori esponenziali sfruttano la linearizzazione del problema e fanno uso della matrice Jacobiana. In generale, tale matrice non ha una struttura particolare e varia continuamente nel tempo, pertanto le tecniche standard per la valutazione dell'esponenziale non sono molto efficienti dal punto di vista computazionale. In questa tesi, studiamo inizialmente l'esponenziale di matrice e il Metodo di Scaling and Squaring per approssimarlo. In seguito, introduciamo alcuni metodi numerici a un passo per la risoluzione di Problemi di Cauchy; infine studiamo il Metodo di Rosenbrock - Eulero che fa uso degli integratori esponenziali per risolvere problemi differenziali con dato iniziale, ne analizziamo convergenza e stabilità e lo applichiamo all'equazione differenziale alle derivate parziali di Allen - Cahn.
Resumo:
Il tema centrale di questa Tesi è il cosiddetto "Teorema di Rappresentazione di Riesz" per i funzionali positivi su alcuni spazi di funzione continue. Questo Teorema, caposaldo dell'Analisi Funzionale, è inscindibilmente legato alla Teoria della Misura. Esso, infatti, stabilisce un'importante legame tra funzionali lineari positivi e misure positive di Radon. Dopo un'ampia disamina di questo Teorema, la Tesi si concentra su alcune delle sue Applicazioni in Analisi Reale e in Teoria del Potenziale. Nello specifico, viene provato un notevole risultato di Analisi Reale: la differenziabilità quasi dappertutto delle funzioni monotone su un intervallo reale. Nella dimostrazione di questo fatto, risulta cruciale anche un interessantissimo argomento di "continuità dalla positività", attraverso cui passiamo varie volte nella Tesi. Infatti, esso è determinante anche nelle Applicazioni in Teoria del Potenziale per la costruzione della misura armonica di un aperto regolare e della cosiddetta "misura di Riesz di una funzione subarmonica".
Resumo:
L’Industria 4.0 richiede sempre più tecnologie con un notevole grado di flessibilità, in modo da garantire il più alto livello di integrazione uomo-macchina e macchina- macchina. In quest’ottica, l’avvento della robotica collaborativa, ha agevolato il pro- cesso. I robot collaborativi (cobot) possono essere facilmente installati all’interno del- le linee di assemblaggio/produzione, senza necessità di barriere che vietino l’accesso agli operatori. Tra i tanti compiti a cui possono asservire i cobot, ci sono quelli dedica- ti all’ispezione delle varie macchine (e.g. microfermate di emergenza), in cui di solito, l’apertura del pannello di protezione è affidata ad un cobot montato a bordo di un AGV. È in questo contesto che si inserisce l’elaborato di tesi, volto al controllo in forza di un robot collaborativo per la movimentazione di un pannello di protezione di una mac- china automatica. In particolare, per ragioni logistiche e di ingombro, un simulacro del pannello di protezione è stato realizzato in scala, mentre il controllo real-time del cobot è stato implementato utilizzando ROS (Robot Operating System), piattaforma disponibile in modalità open-source.
Resumo:
A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.