582 resultados para retorinen metodi
Resumo:
Il presente lavoro è finalizzato ad illustrare i metodi algebrici di base e alcune applicazioni della Meccanica Quantistica Supersimmetrica, partendo da semplici modelli quantistici, come l’oscillatore armonico. Una volta introdotti tali metodi, rappresentati principalmente dalla fattorizzazione di hamiltoniani e dalla costruzione di sistemi partner supersimmetrici, nel corso della trattazione, vengono formalizzate le regole dell’algebra di Supersimmetria N=2 e mostrate le principali proprietà. Viene inoltre definito l’indice di Witten per analizzare la rottura spontanea della Supersimmetria. Infine, si applicano i risultati esposti a semplici modelli fisici: la barriera infinita e l’oscillatore armonico supersimmetrico discutendo di quest’ultimo le principali caratteristiche.
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
Si riassumono le principali proprietà e applicazioni di dispositivi basati su nanofili. Si descrivono le tecniche utilizzate in laboratorio per analizzare livelli profondi in nanofili di Silicio con particolare attenzione ai concetti teorici alla base di questi metodi.
Resumo:
L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.
Resumo:
Lo studio dell’intelligenza artificiale si pone come obiettivo la risoluzione di una classe di problemi che richiedono processi cognitivi difficilmente codificabili in un algoritmo per essere risolti. Il riconoscimento visivo di forme e figure, l’interpretazione di suoni, i giochi a conoscenza incompleta, fanno capo alla capacità umana di interpretare input parziali come se fossero completi, e di agire di conseguenza. Nel primo capitolo della presente tesi sarà costruito un semplice formalismo matematico per descrivere l’atto di compiere scelte. Il processo di “apprendimento” verrà descritto in termini della massimizzazione di una funzione di prestazione su di uno spazio di parametri per un ansatz di una funzione da uno spazio vettoriale ad un insieme finito e discreto di scelte, tramite un set di addestramento che descrive degli esempi di scelte corrette da riprodurre. Saranno analizzate, alla luce di questo formalismo, alcune delle più diffuse tecniche di artificial intelligence, e saranno evidenziate alcune problematiche derivanti dall’uso di queste tecniche. Nel secondo capitolo lo stesso formalismo verrà applicato ad una ridefinizione meno intuitiva ma più funzionale di funzione di prestazione che permetterà, per un ansatz lineare, la formulazione esplicita di un set di equazioni nelle componenti del vettore nello spazio dei parametri che individua il massimo assoluto della funzione di prestazione. La soluzione di questo set di equazioni sarà trattata grazie al teorema delle contrazioni. Una naturale generalizzazione polinomiale verrà inoltre mostrata. Nel terzo capitolo verranno studiati più nel dettaglio alcuni esempi a cui quanto ricavato nel secondo capitolo può essere applicato. Verrà introdotto il concetto di grado intrinseco di un problema. Verranno inoltre discusse alcuni accorgimenti prestazionali, quali l’eliminazione degli zeri, la precomputazione analitica, il fingerprinting e il riordino delle componenti per lo sviluppo parziale di prodotti scalari ad alta dimensionalità. Verranno infine introdotti i problemi a scelta unica, ossia quella classe di problemi per cui è possibile disporre di un set di addestramento solo per una scelta. Nel quarto capitolo verrà discusso più in dettaglio un esempio di applicazione nel campo della diagnostica medica per immagini, in particolare verrà trattato il problema della computer aided detection per il rilevamento di microcalcificazioni nelle mammografie.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
L'obiettivo della tesi è diradare, almeno parzialmente, le incertezze che potrebbero essere presenti nella caratterizzazione a compressione di materiali compositi. Per quanto concerne la compressione, in un primo momento, non essendo ritenuta una caratteristica troppo rilevante, si considerava che il materiale composito avesse proprietà equivalenti a quelle in trazione. Solo successivamente, dai primi anni ’70, si sono iniziate ad indagare in modo approfondito e mirato le proprietà meccaniche a compressione di tali materiali. Si sono sviluppati e normati nel tempo vari metodi che vengono classificati in base al modo di applicazione del carico sul provino. Ci si è quindi proposti, basandosi anche sulle richieste mosse dalla Scuderia Toro Rosso di Faenza, di determinare, dopo aver analizzato tutti i vantaggi e gli svantaggi di ciascuna metodologia, quella migliore a cui attenersi per tutte le prove di compressione che seguiranno. A tale scopo, dopo una attenta e approfondita analisi dei vari metodi di prova, si è scelto di utilizzare il Combined Loading Compression (CLC) Test Fixture: attrezzatura leggera e molto compatta, che dimostra una affidabilità dei risultati superiore alle altre tecnologie. Si è, inoltre, deciso di testare laminati non unidirezionali, evitando così molte problematiche quali, ad esempio, quelle dovute all’utilizzo di tabs o al possibile insorgere di microbuckling delle fibre. Si è risaliti, poi, al valore di resistenza a compressione della lamina unidirezionale attraverso il metodo di calcolo indiretto del Back-Out Factor (BF). Di tale metodo si sono indagate le basi teoriche, a partire dalla teoria classica dei laminati, e si sono ricavate le formule necessarie per l'applicazione pratica sperimentale. Per quanto riguarda la campagna sperimentale, svolta presso i laboratori ENEA di Faenza – Unità Tecnica Tecnologie dei Materiali Faenza (UTTMATF), sono stati realizzati 6 laminati di materiale composito, ognuno con differente sequenza di laminazione e percentuale di fibre nelle diverse direzioni. Due laminati sono stati ottenuti impilando lamine unidirezionali preimpregnate, in modo da ottenere una configurazione cross-ply (0°\90°), due in configurazione angle-ply (0°\90°\±45°) e due materiali unidirezionali (0° e 90°). Da questi 6 laminati sono stati ricavati 12/13 provini ciascuno. I provini cross-ply e angle-ply sono stati testati per ricavarne la resistenza a compressione, da cui, poi, risalire a quella della lamina unidirezionale a 0° mediante il BF. Dal confronto dei risultati ottenuti attraverso l'applicazione combinata di CLC e Back-Out Factor, con i dati riportati nel datasheet ufficiale, si è avuta conferma dell'affidabilità della metodologia scelta. Per quanto concerne l'elaborazione dei dati ricavati dalle prove sperimentali, è stato utilizzato un opportuno programma realizzato con il software Matlab. Con l'estensione GUI, poi, è stata creata un'interfaccia grafica per agevolare la comprensione delle fasi di elaborazione anche ad un utente non esperto.
Resumo:
Obiettivo della presente tesi è l’ipotesi di applicazione dell’approccio PLLM (Plant Lifecycle Management) in un contesto sanitario sfruttando moderni metodi di organizzazione e coordinamento delle fasi del ciclo di vita di un impianto e nuove tecnologie per la realizzazione di un database informatizzato per la gestione dei dati e delle informazioni all’interno di una struttura sanitaria, nel caso specifico del Blocco Operatorio ‘Vittorio Trancanelli’ dell’Azienda Ospedaliera di Perugia. Per raggiungere tale obiettivo ho prima di tutto analizzato il contesto aziendale, studiate le realtà esistenti, per poi affrontare in dettaglio le variabili del problema. I dati ottenuti in seguito all’attività di ricerca sono stati utilizzati per conoscere e avere una dimensione della mole di informazioni e beni che vengono annualmente smistati e gestiti quotidianamente all’interno della struttura ospedaliera per andare ad analizzare più nello specifico la strutturazione e la complessità di un impianto complesso quale il Blocco Operatorio “Vittorio Trancanelli”. In ultima istanza sono state redatte delle metodologie per la corretta implementazione della piattaforma gestionale in ottica PLLM al fine di garantire una snella e tempestiva fruizione della documentazione utile alla corretta gestione del ciclo di vita di un impianto complesso.
Resumo:
La tesi prende spunto da due laboratori del Piano di Lauree Scientifiche, "Numeri primi e crittografia" e "Giocare con i numeri". Si approfondiscono i problemi additivi riguardanti i numeri primi. Questi sono stati scelti per due principali motivi: la semplicità dei contenuti, che possono essere compresi dagli studenti di tutti i tipi di scuola, e la possibilità di prestarsi bene ad un approccio di tipo laboratoriale da parte degli studenti, adattabile alle diverse preparazioni matematiche e al tempo stesso in grado di stimolare curiosità su problemi ancora irrisolti. Si mostreranno metodi di risoluzione di tipo elementare ma anche metodi che coinvolgono l'analisi complessa.
Resumo:
La tesi si propone di sviluppare un modello, l'architettura e la tecnologia per il sistema di denominazione del Middleware Coordinato TuCSoN, compresi gli agenti, i nodi e le risorse. Identità universali che rappresentano queste entità, sia per la mobilità fisica sia per quella virtuale, per un Management System (AMS, NMS, RMS) distribuito; tale modulo si occupa anche di ACC e trasduttori, prevedendo questioni come la tolleranza ai guasti, la persistenza, la coerenza, insieme con il coordinamento disincarnata in rete, come accade con le tecnologie Cloud. All’interno dell’elaborato, per prima cosa si è fatta una introduzione andando a descrivere tutto ciò che è contenuto nell’elaborato in modo da dare una visione iniziale globale del lavoro eseguito. Di seguito (1° capitolo) si è descritta tutta la parte relativa alle conoscenze di base che bisogna avere per la comprensione dell’elaborato; tali conoscenze sono relative a TuCSoN (il middleware coordinato con cui il modulo progettato dovrà interfacciarsi) e Cassandra (sistema server distribuito su cui si appoggia la parte di mantenimento e salvataggio dati del modulo). In seguito (2° capitolo) si è descritto JADE, un middleware da cui si è partiti con lo studio per la progettazione del modello e dell’architettura del modulo. Successivamente (3° capitolo) si è andati a spiegare la struttura e il modello del modulo considerato andando ad esaminare tutti i dettagli relativi alle entità interne e di tutti i legami fra esse. In questa parte si è anche dettagliata tutta la parte relativa alla distribuzione sulla rete del modulo e dei suoi componenti. In seguito (4° capitolo) è stata dettagliata e spiegata tutta la parte relativa al sistema di denominazione del modulo, quindi la sintassi e l’insieme di procedure che l’entità consumatrice esterna deve effettuare per ottenere un “nome universale” e quindi anche tutti i passaggi interni del modulo per fornire l’identificatore all’entità consumatrice. Nel capitolo successivo (5° capitolo) si sono descritti tutti i casi di studio relativi alle interazioni con le entità esterne, alle entità interne in caso in cui il modulo sia o meno distribuito sulla rete, e i casi di studio relativi alle politiche, paradigmi e procedure per la tolleranza ai guasti ed agli errori in modo da dettagliare i metodi di riparazione ad essi. Successivamente (6° capitolo) sono stati descritti i possibili sviluppi futuri relativi a nuove forme di interazione fra le entità che utilizzano questo modulo ed alle possibili migliorie e sviluppi tecnologici di questo modulo. Infine sono state descritte le conclusioni relative al modulo progettato con tutti i dettagli in modo da fornire una visione globale di quanto inserito e descritto nell’elaborato.
Resumo:
Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
Questo elaborato illustra il problema della determinazione di una tecnica per rendere la misura della cardiac output il più possibile accurata, economica e poco invasiva. A tale scopo è preso in esame un nuovo metodo basato sul modello WindKessel per la stima continua battito a battito di CO e TPR, partendo dall’analisi delle forme d’onda della pressione arteriosa periferica. Tale metodo ideato nel 2007 da T.A. Parlikar considera informazioni pressorie intrabattito e interbattito, in modo da ottenere stime soddisfacenti, che migliorano ulteriormente assumendo una complianza pressione-dipendente. Applicando il metodo a un data set di animali suini, contenente misurazioni della CO di riferimento su base battito-battito, si riscontra un errore di stima complessivo pari a un RMNSE medio variabile tra l’11% ed il 13%, inferiore alla soglia del 15% ritenuta accettabile in letteratura per scopi clinici. Confrontando questi risultati con quelli ottenuti attraverso l’applicazione di altri metodi riportati in letteratura allo stesso set di dati, è stato dimostrato che il metodo risulta tra i migliori. Le CO e TPR stimate, dopo le infusioni farmacologiche endovenose effettuate sugli animali, corrispondono abbastanza fedelmente alle risposte emodinamiche attese. Successivamente viene considerato l’obbiettivo di verificare l’applicabilità della procedura matematica sulla quale si fonda il metodo. Si implementa il procedimento e si applica il metodo su un data set simulato su base battito-battito, comprendente dati relativi a varie condizioni di funzionamento fisiologiche. Le stime di CO e TPR ottenute in questa fase inseguono discretamente le variazioni delle variabili emodinamiche simulate, dimostrandosi migliori nel caso di calibrazione con complianza pressione-dipendente.
Resumo:
Obiettivo: dimostrare l'equivalenza tra la sensibilità del Verde Indocianina e quella del Tecnezio radioattivo nella detezione del linfonodo sentinella(LS), nei pazienti affetti da carcinoma mammario allo stadio iniziale. Metodi: linfoscintigrafia con Tc99m-marcato, attraverso Gammacamera e con Verde Indocianina, attraverso Photo Dinamic Eye, per la detezione del LS. Utilizzo della sonda Gamma Probe per la discriminazione dei linfonodi radioattivi da quelli non radioattivi. Analisi statistica dei dati. Risultati: sono stati studiati 200 pazienti per un totale di 387 linfonodi asportati; la sensibilità del ICG risulta essere del 98,09%. Studi statistici hanno confermato la non significatività dei parametri di BMI, taglia mammaria, dose iniettata, tempo iniezione-incisione per il rintracciamento del numero corretto di linfonodi (al massimo 2). Conclusioni: l'elevata sensibilità del ICG permette di affermare l'equivalenza tra la capacità di detezione dei LS con le due sostanze(Tc e ICG). A livello operativo la tecnica con ICG facilita l'asportazione del LS. Data la non significatività della dose di ICG iniettata per la detezione del numero corretto di linfonodi, clinicamente conviene iniettare sempre la dose minima di farmaco.
Resumo:
Obbiettivo: approfondire le conoscenze sul sonno attraverso l'analisi di possibili marcatori di sonnolenza, gli Slow Eye Movements, con particolare attenzione ad una specifica patologia del sonno chiamata Obstructive Sleep Apnea Syndrome (OSAS). Metodi: sono stati analizzati gli Slow Eye Movements a partire dall'output di un algoritmo automatico, già esistente, per la loro identificazione a partire dal segnale elettro-oculografico. Il lavoro è stato condotto in ambiente MATLAB. Risultati: si sono rilevate differenze in soggetti OSAS e sani: i primi mostrano un numero maggiore di SEM nell'arco della veglia. Questa attività diventa maggiore a distanze superiori dal sonno rispetto a soggetti sani. Inoltre si è riscontrato che i SEM in veglia sono associati ad un aumento di ritmo cerebrale alpha, ed una diminuzione del ritmo beta. Conclusioni: questo studio sembra validare i SEM come marcatori di sonnolenza e ne approfondisce la conoscenza. Essi potrebbero essere quindi utilizzati in ambito clinico e tecnologico per rilevare stati di sonnolenza.