982 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hadrontherapy employs high-energy beams of charged particles (protons and heavier ions) to treat deep-seated tumours: these particles have a favourable depth-dose distribution in tissue characterized by a low dose in the entrance channel and a sharp maximum (Bragg peak) near the end of their path. In these treatments nuclear interactions have to be considered: beam particles can fragment in the human body releasing a non-zero dose beyond the Bragg peak while fragments of human body nuclei can modify the dose released in healthy tissues. These effects are still in question given the lack of interesting cross sections data. Also space radioprotection can profit by fragmentation cross section measurements: the interest in long-term manned space missions beyond Low Earth Orbit is growing in these years but it has to cope with major health risks due to space radiation. To this end, risk models are under study: however, huge gaps in fragmentation cross sections data are currently present preventing an accurate benchmark of deterministic and Monte Carlo codes. To fill these gaps in data, the FOOT (FragmentatiOn Of Target) experiment was proposed. It is composed by two independent and complementary setups, an Emulsion Cloud Chamber and an electronic setup composed by several subdetectors providing redundant measurements of kinematic properties of fragments produced in nuclear interactions between a beam and a target. FOOT aims to measure double differential cross sections both in angle and kinetic energy which is the most complete information to address existing questions. In this Ph.D. thesis, the development of the Trigger and Data Acquisition system for the FOOT electronic setup and a first analysis of 400 MeV/u 16O beam on Carbon target data acquired in July 2021 at GSI (Darmstadt, Germany) are presented. When possible, a comparison with other available measurements is also reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nuclear cross sections are the pillars onto which the transport simulation of particles and radiations is built on. Since the nuclear data libraries production chain is extremely complex and made of different steps, it is mandatory to foresee stringent verification and validation procedures to be applied to it. The work here presented has been focused on the development of a new python based software called JADE, whose objective is to give a significant help in increasing the level of automation and standardization of these procedures in order to reduce the time passing between new libraries releases and, at the same time, increasing their quality. After an introduction to nuclear fusion (which is the field where the majority of the V\&V action was concentrated for the time being) and to the simulation of particles and radiations transport, the motivations leading to JADE development are discussed. Subsequently, the code general architecture and the implemented benchmarks (both experimental and computational) are described. After that, the results coming from the major application of JADE during the research years are presented. At last, after a final discussion on the objective reached by JADE, the possible brief, mid and long time developments for the project are discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Our objective in this thesis is to study the pseudo-metric and topological structure of the space of group equivariant non-expansive operators (GENEOs). We introduce the notions of compactification of a perception pair, collectionwise surjectivity, and compactification of a space of GENEOs. We obtain some compactification results for perception pairs and the space of GENEOs. We show that when the data spaces are totally bounded and endow the common domains with metric structures, the perception pairs and every collectionwise surjective space of GENEOs can be embedded isometrically into the compact ones through compatible embeddings. An important part of the study of topology of the space of GENEOs is to populate it in a rich manner. We introduce the notion of a generalized permutant and show that this concept too, like that of a permutant, is useful in defining new GENEOs. We define the analogues of some of the aforementioned concepts in a graph theoretic setting, enabling us to use the power of the theory of GENEOs for the study of graphs in an efficient way. We define the notions of a graph perception pair, graph permutant, and a graph GENEO. We develop two models for the theory of graph GENEOs. The first model addresses the case of graphs having weights assigned to their vertices, while the second one addresses weighted on the edges. We prove some new results in the proposed theory of graph GENEOs and exhibit the power of our models by describing their applications to the structural study of simple graphs. We introduce the concept of a graph permutant and show that this concept can be used to define new graph GENEOs between distinct graph perception pairs, thereby enabling us to populate the space of graph GENEOs in a rich manner and shed more light on its structure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi propone un'analisi del Fascicolo Sanitario Elettronico. Il Fascicolo Sanitario Elettronico è uno strumento che, con la telemedicina e le tecnologie ITC, conforma la Sanità Digitale. La sua funzione principale è l'archiviazione di dati e documenti sanitari, ma l'essere una sorta di digitalizzazione delle cartelle cliniche è solo uno dei compiti dell'FSE, la sua utilità comprende una serie di servizi che mirano a facilitare il tracciamento e monitoraggio degli eventi medici che sperimentano i cittadini. Grazie all'FSE è possibile che medici ed operatori sanitari presso diversi ospedali e cliniche possano apprendere l'intera storia clinica del paziente con un click. Nel 2020, con la diffusione del coronavirus, sono stati evidenziati diversi dei problemi che già erano stati riscontrati nel funzionamento dell'FSE, dunque questo documento si pone l'obiettivo di presentare questa tecnologia, il suo funzionamento attuale, le problematiche, e gli obiettivi che mirano al suo miglioramento. Da qualche anno, diversi paesi in giro per il mondo, si sono interessati nello sviluppo di questa tecnologia, con lo scopo di modernizzare e migliorare la salute pubblica, ma, in seguito alla diffusione della pandemia, il fascicolo si è ritrovato al centro dell'attenzione dell'universo sanitario, perciò la decisione di trattare questo tema attualissimo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il quark-gluon plasma (QGP) è uno stato della materia previsto dalla cromodinamica quantistica. L’esperimento ALICE a LHC ha tra i suoi obbiettivi principali lo studio della materia fortemente interagente e le proprietà del QGP attraverso collisioni di ioni pesanti ultra-relativistici. Per un’esaustiva comprensione di tali proprietà, le stesse misure effettuate su sistemi collidenti più piccoli (collisioni protone-protone e protone-ione) sono necessarie come riferimento. Le recenti analisi dei dati raccolti ad ALICE hanno mostrato che la nostra comprensione dei meccanismi di adronizzazione di quark pesanti non è completa, perchè i dati ottenuti in collisioni pp e p-Pb non sono riproducibili utilizzando modelli basati sui risultati ottenuti con collisioni e+e− ed ep. Per questo motivo, nuovi modelli teorici e fenomenologici, in grado di riprodurre le misure sperimentali, sono stati proposti. Gli errori associati a queste nuove misure sperimentali al momento non permettono di verificare in maniera chiara la veridicità dei diversi modelli proposti. Nei prossimi anni sarà quindi fondamentale aumentare la precisione di tali misure sperimentali; d’altra parte, stimare il numero delle diverse specie di particelle prodotte in una collisione può essere estremamente complicato. In questa tesi, il numero di barioni Lc prodotti in un campione di dati è stato ottenuto utilizzando delle tecniche di machine learning, in grado di apprendere pattern e imparare a distinguere candidate di segnale da quelle di fondo. Si sono inoltre confrontate tre diverse implementazioni di un algoritmo di Boosted Decision Trees (BDT) e si è utilizzata quella più performante per ricostruire il barione Lc in collisioni pp raccolte dall’esperimento ALICE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La semantica di RDF non permette di esprimere punti di vista contraddittori sullo stesso set di dati. Il problema consiste sostanzialmente nell’impossibilità di esprimere, in RDF, affermazioni il cui valore di verità sia sconosciuto, oppure in contrasto con quello di altre affermazioni, senza però asserirle, poichè questo le renderebbe indubbiamente vere. Nel corso del tempo, partendo dalla necessità di esprimere statement su altri statement, sono stati prodotti diversi approcci, nessuno dei quali sembra dare una risposta convincente all’esigenza che potremmo riassumere nel poter esprimere senza asserire. Nel presente lavoro, dopo un'analisi dei differenti approcci al problema, e dei relativi risultati, verranno presentate le "Congetture": una nuova proposta di estensione di RDF 1.1 che permette l’espressione di grafi il cui valore di verità è sconosciuto. Le Congetture sono una notazione per esprimere, senza asserire, named graphs in RDF, unitamente ad un meccanismo per affermarne la verità chiamato "collasso alla realtà". Una Congettura collassata è allo stesso tempo un grafo congetturale e un grafo asserito, ed è un modo semplice per gestire situazioni che, espresse inizialmente sotto forma di congetture, devono successivamente essere considerare vere. La proposta è costruita attorno a due concetti principali: 1) la Congettura: un concetto il cui valore di verità non è disponibile; 2) il collasso alla realtà: un meccanismo per asserire pienamente, in RDF, quando necessario, il valore di verità della Congettura. Verranno analizzati scenari avanzati quali Congetture di Congetture, Congetture di collassi e collassi a cascata. Verrà delineata la semantica formale completa della proposta, estendendo la simple interpretation di RDF 1.1, dimostrando che le Congetture sono pienamente compatibili con RDF. Le Congetture, con un'estensione minima del modello, aggiungono ad RDF la possibilità di esprimere, senza asserire, incertezze, ipotesi e dubbi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La difficoltà nello studio del calcolo combinatorio e della probabilità è una condizione diffusa all'interno del corso di ingegneria e scienze informatiche. Parte del problema è sicuramente l'approccio concreto condiviso da molti studenti, il quale si scontra con l'aspetto teorico di questa materia. Per questa forma mentis, lo studente è portato a dubitare di molte regole e teoremi (specie se contro intuitivi) anche dopo averne visto la dimostrazione. Ciò che questo tipo di studente trova più convincente è invece la prova pratica. La realizzazione di questo progetto parte da quest'idea, fornire agli studenti dimostrazioni pratiche attraverso la simulazione di contesti reali, offrendo la possibilità di confrontare i risultati di dette simulazioni con quelli enunciati nei teoremi. A tale scopo, una parte importante del lavoro è stata la realizzazione di grafici chiari ed esaustivi, che permettano di confrontare i risultati ottenuti con quelli attesi in maniera rapida ed intuitiva. Ciò non di meno, la realizzazione di alcune delle simulazioni ha comportato delle sfide tecniche nel produrre e maneggiare grosse moli di dati, nell'utilizzo di dataset di dati reali e nell'aspetto presentazionale dei risultati. Speriamo, attraverso la consultazione dell'elaborato analizzato di seguito, di semplificare lo studio ad alcuni studenti, aiutarli ad interiorizzare concetti basilari e non, fornendogli uno strumento per studiare più adatto a loro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d’oggi viviamo in una realtà dove lo sviluppo economico, l’innovazione tecnologica, la qualità della vita e l’impatto ambientale sono i protagonisti assoluti. Tutti, persino gli Stati del mondo, si trovano a fare i conti con varie problematiche riguardanti i quattro aspetti sopracitati e qui possiamo dire che la sostenibilità ne è il punto chiave e che al momento non sembra esistere ancora una metrica riconosciuta e approvata per consigliare, a chi di interesse, come modificare certi aspetti per crescere in modo sostenibile. Le Nazioni Unite hanno deciso, di comune accordo, di stilare una lista di obiettivi da raggiungere entro il 2030 dove è possibile trovare argomenti in linea con quanto descritto finora. Questa raccolta è principalmente divisa in aspetti economici, sociali e ambientali che sono le stesse categorie di dati impiegate per il calcolo del Sustainable Development Index. In questo elaborato ci si propone di progettare e sviluppare una rete neurale predittiva da affiancare a un sistema di feedback per realizzare un prodotto che sia abile di: descrivere il contesto di partenza tramite l’SDI e/o consigliare comportamenti per migliorare la situazione in modo sostenibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Utilizzando un servizio basato sulla posizione milioni di utenti acconsentono ogni giorno all'utilizzo e alla memorizzazione, da parte delle aziende fornitrici, dei propri dati personali. La legislazione attuale consente agli utilizzatori di questi servizi un discreto grado di protezione attraverso l'anonimizzazione dei dati. Esistono tuttavia situazioni in cui queste informazioni sono a rischio: se un malintenzionato dovesse penetrare con successo nel server in cui questi dati sono memorizzati potrebbe comunque essere in grado di accedere ai dati sensibili di un utente. Attraverso alcune tecniche, infatti, è possibile risalire a chi sono riferite le informazioni attraverso dei quasi-identifier. La soluzione può essere di approssimare i dati sulla posizione di un utente in modo da non offrire una visione troppo precisa a un possibile avversario nel caso in cui esso riesca a recuperarli. Allo scopo di comprendere i parametri con cui offuscare l'utente è stato scritto uno script in grado di simulare l'attività di diversi utenti circolanti per la città di New York. Questi ultimi simuleranno delle richieste ad un ipotetico servizio basato sulla posizione ad intervalli regolari. Queste richieste simulano il refresh automatico che uno smartphone compie. Attraverso i dati di queste ultime sarà possibile capire quali utenti si trovino in prossimità l'uno dell'altro, in modo da confondere le reciproche informazioni. Questo sistema fa sì che un avversario veda ridotte le sue possibilità di risalire ai dati relativi all'utente. Al ridursi dell'intervallo di esecuzione delle query si avrà un percorso più definito che però comporterà una maggiore quantità di dati recuperati. All'aumentare del raggio si avrà una maggiore incertezza nella posizione che ridurrà però il valore che i dati portano per un fornitore di servizi. Bilanciare quindi il valore economico dei dati e la protezione a cui è sottoposto un utente è fondamentale per comprendere i valori di offuscamento utilizzabili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, grazie al progresso tecnologico e ad una sempre maggior disponibilità di grosse moli di dati, l'Intelligenza Artificiale è letteralmente esplosa, arrivando ad abbracciare diversi domini, tra cui quello delle Neuroscienze. In questa tesi si illustra quindi quale sia l'attuale ruolo che l'Intelligenza Artificiale (IA) assume nelle Neuroscienze. La tesi inizia con un capitolo introduttivo volto a fornire delle nozioni di base relative all'IA, utili per comprendere al meglio i successivi capitoli. Nel secondo capitolo vengono forniti degli esempi sugli ambiti di utilizzo dell'IA nelle Neuroscienze: in ogni esempio vi è una parte introduttiva, volta a descrivere il contesto, seguita da una parte in cui, riportando uno o più recenti articoli scientifici, si descrivono i benefici che quell'ambito può trarre dall'utilizzo dell'IA. Infine, nel terzo capitolo, seguendo lo stesso schema degli esempi del secondo capitolo, si approfondisce il ruolo dell'IA nella Salute Mentale, concentrandosi principalmente sull'aspetto patologico e, più precisamente, sui vantaggi che l'IA può apportare nella prevenzione, diagnosi e trattamento del Disturbo Depressivo Maggiore (DDM) e dei Disturbo dello Spettro Autistico (DSA).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi in oggetto ha lo scopo di valutare la fattibilità di sviluppare, sulla base di dati sperimentali, un metodo previsionale per il comportamento a fatica della lega AlSi10Mg prodotta mediante Laser Powder Bed Fusion, adattabile a componenti di dimensioni qualsiasi. La lega è stata trattata con invecchiamento diretto (T5) ottimizzato per ottenere una parziale riduzione delle tensioni residue senza comprometterne la durezza. Partendo da prove di fatica a flessione rotante condotte seguendo il metodo statistico Stair-Case per la definizione della resistenza a fatica, si vuole correlare il difetto killer, ossia quello che innesca la rottura del provino, alla caratterizzazione dei difetti condotta pre-prova con tomografia computerizzata ad alta risoluzione (µCT). Il difetto killer, osservato sulle superfici di frattura, viene analizzato in termini di dimensione, posizione e forma. Contemporaneamente è stato sviluppato un metodo per l’analisi dei difetti ottenuta con µCT tale da poter identificare quelli considerati più pericolosi, sulla base dello stato tensionale del campione, di posizione e dimensione dei difetti. Inoltre, è stata eseguita una caratterizzazione microstrutturale sulle sezioni trasversali dei campioni per valutare la quantità, dimensione e forma dei difetti e confrontarla con i dati di µCT. Per mostrare la relazione tra le dimensioni del difetto killer e la resistenza a fatica è stato adottato il diagramma di Kitagawa-Takahashi, con il modello di El Haddad. Dal confronto tra le metodologie è stata riscontrata una buona correlazione tra i difetti individuati come pericolosi dai dati di µCT e quelli che hanno effettivamente portato a rottura il campione, osservati in frattografia, supportando quindi la possibilità di sviluppare un metodo previsionale del comportamento a fatica. Quantitativamente, le dimensioni dei difetti killer sono nell’intervallo 90-130 µm e si trovano ad una distanza massima dalla superficie di non oltre 250 µm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La seguente tesi propone un’introduzione al geometric deep learning. Nella prima parte vengono presentati i concetti principali di teoria dei grafi ed introdotta una dinamica di diffusione su grafo, in analogia con l’equazione del calore. A seguire, iniziando dal linear classifier verranno introdotte le architetture che hanno portato all’ideazione delle graph convolutional networks. In conclusione, si analizzano esempi di alcuni algoritmi utilizzati nel geometric deep learning e si mostra una loro implementazione sul Cora dataset, un insieme di dati con struttura a grafo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.