162 resultados para dimensione di anelli affini polinomio di Hilbert


Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La risonanza magnetica cardiaca è una tecnica di imaging non invasiva, in quanto non necessita l’uso di radiazioni ionizzanti, caratterizzata da un’elevata risoluzione spaziale e che permette acquisizioni in 4-D senza vincoli di orientazione. Grazie a queste peculiarità, la metodica della risonanza magnetica ha mostrato la sua superiorità nei confronti delle altre tecniche diagnostiche ed è riconosciuta come il gold standard per lo studio della fisiologia e fisiopatologia della pompa cardiaca. Nonostante la potenza di questi vantaggi, esistono ancora varie problematiche che, se superate, potrebbero probabilmente migliorare ulteriormente la qualità delle indagini diagnostiche. I software attualmente utilizzati nella pratica clinica per le misure del volume e della massa ventricolare richiedono un tracciamento manuale dei contorni dell’endocardio e dell’epicardio per ciascuna fetta, per ogni frame temporale del ciclo cardiaco. Analogamente avviene per il tracciamento dei contorni del tessuto non vitale. In questo modo l’analisi è spesso qualitativa. Di fatti, la necessità dell’intervento attivo dell’operatore rende questa procedura soggettiva e dipendente dall’esperienza, provocando un’elevata variabilità e difficile ripetibilità delle misure intra e inter operatore, oltre ad essere estremamente dispendiosa in termini di tempo, a causa dell’elevato numero di immagini da analizzare. La disponibilità di una tecnica affidabile per il tracciamento automatico dei contorni dell’endocardio e dell’epicardio consente di superare queste limitazioni ed aumentare l’accuratezza e la ripetibilità delle misure di interesse clinico, quali dimensione, massa e curve di volume ventricolari. Lo scopo di questa tesi è di sviluppare e validare una tecnica di segmentazione automatica che consenta l’identificazione e la quantificazione di cicatrici nel miocardio, a seguito di infarto cardiaco. Il lavoro è composto da due tappe principali. Inizialmente, è presentato un metodo innovativo che permette, in via totalmente automatica, di tracciare in modo accurato e rapido i contorni dell’endocardio e dell’epicardio nel corso dell’intero ciclo cardiaco. Successivamente, l’informazione sulla morfologia cardiaca ricavata nella prima fase è utilizzata per circoscrivere il miocardio e quantificare la transmuralità dell’infarto presente in pazienti ischemici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le nanoparticelle polimeriche offrono grandi vantaggi nella nanomedicina in quanto fungono da carrier per il Drug Delivery e possono essere molto utili per le malattie ancor oggi difficili da trattare quali le neurodegenerative come l’Alzheimer. In questo progetto di tesi sono stati creati nanocarrier polimerici utilizzando come polimero un copolimero a blocchi anfifilico noto come PLGA-b-PEG: con varie tecniche si sono ottenute micelle polimeriche nelle quali sono stati intrappolati come principi attivi sia un farmaco, il liraglutide, sia nanoparticelle di magnesio; il primo può ridurre le placche β-amiloidee, tipiche cause dell’Alzheimer, mentre le seconde possono aumentare la plasticità sinaptica anch’essa legata all’Alzheimer. Inoltre è stato sintetizzato e intrappolato anche un promettente agente diagnostico, ovvero nanoparticelle di ferro, utile per aumentare la sensibilità di tecniche di imaging quali MRI e per la rivelazione precoce di malattie. Tutti i sistemi sono stati caratterizzati con tecniche specifiche per valutare i parametri chiave quali dimensione, polidispersità, carica superficiale e concentrazione dei componenti e successivamente sono state utilizzate per studi biologici effettuati da collaboratori esterni. Tutto questo ha come obiettivo futuro la creazione di un carrier teranostico che racchiuderà al suo interno l’agente terapeutico e l’agente diagnostico per combinare i due effetti principali in un unico carrier.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La classificazione delle algebre di Lie semplici di dimensione finita su un campo algebricamente chiuso si divide in due parti: le algebre di Lie classiche e quelle eccezionali. La differenza principale è che le algebre di Lie classiche vengono introdotte come algebre di matrici, quelle eccezionali invece non si presentano come algebre di matrici ma un modo di introdurle è attraverso il loro diagramma di Dynkin. Lo scopo della tesi è di realizzare l' algebra di Lie eccezionale di tipo G_2 come algebra di matrici. Per raggiungere tale scopo viene introdotta un' algebra di composizione: la cosiddetta algebra degli ottonioni. Quest'ultima viene costruita in due modi diversi: come spazio vettoriale sui reali con un prodotto bilineare e come insieme delle coppie ordinate di quaternioni. Il resto della tesi è dedicato all' algebra delle derivazioni degli ottonioni. Viene dimostrato che questa è un' algebra di Lie semisemplice di dimensione 14. Infine, considerando la complessificazione dell'algebra delle derivazioni degli ottonioni, viene dimostrato che quest'ultima è semplice e quindi isomorfa a G_2.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro di tesi ha avuto come obiettivo quello di individuare e studiare diverse strategie di sintesi per la preparazione di catalizzatori a base di Pd-Cu supportati su materiali mesoporosi a basi di SiO2. Queste strategie sono state mirate a migliorare: -Distribuzione della fase metallica attiva e la sua accessibilità; -Formazione della fase mista Pd-Cu; -Dimensione delle specie metalliche sulla superficie; -Differenti caratteristiche morfologiche del supporto. I diversi catalizzatori preparati sono stati poi testati sulla reazione di idrodeclorurazione del 1,2-dicloro-1,1,2-trifluoro-2-(triflurometossi)etano (AM), svolta in fase gas con idrogeno a pressione atmosferica, con lo scopo di ottenere il composto insaturo corrispondente 1,1,2-trifluoro-2-(trifluorometossi)etene (MVE). Attualmente, il processo industriale per la produzione di MVE, è condotto con l’utilizzo di quantità stechiometriche di Zn in dimetilformammide; questo processo a causa delle quantità stechiometriche di ZnCl2 prodotto e dell'elevato consumo di solvente tossico risulta assai dispendioso dal punto di vista economico ed ambientale. La tipologia di materiali microporosi, già investigata, può limitare l'efficienza verso substrati ingombranti, è quindi interessante investigare catalizzatori con dimensione dei pori mesoporosi a base di silice; in particolare sono stati analizzati MCM-41 e silice amorfa GRACE® DAVICAT - 1401. In particolare, durante il lavoro di tesi sono stati sviluppati i seguenti argomenti: 1.Studio degli effetti della metodologia di sintesi e del contenuto metallico sui parametri chimico-fisici e catalitici dei sistemi a base di Pd-Cu supportati su MCM-41 e GRACE® DAVICAT - 1401; 2.Ottimizzazione del processo di sintesi dei supporti di MCM-41, ponendo attenzione alle quantità dei reagenti utilizzati, alla metodologia di eliminazione del templante e al tempo di trattamento idrotermale; 3.Ottimizzazione del processo di sintesi dei sistemi catalitici a base di Pd-Cu, al fine di ottenere una fase attiva costituita da particelle con dimensioni ridotte composte da una fase mista Pd-Cu.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questa tesi è lo studio della risolubilità per radicali di equazioni polinomiali nel caso in cui il campo dei coefficienti del polinomio abbia caratteristica zero. Nel primo capitolo vengono richiamati i principali risultati riguardanti la teoria di Galois. Nel secondo capitolo si introducono le nozioni di gruppo risolubile e gruppo semplice analizzandone le proprietà. Nel terzo capitolo si definiscono le estensioni di campi radicali e risolubili. Viene inoltre dimostrato il teorema di Galois che mette in evidenza il legame tra gruppi risolubili ed estensioni risolubili. Infine, nell'ultimo capitolo, si applicano i risultati ottenuti al problema della risolubilità per radicali delle equazioni polinomiali dando anche diversi esempi. In particolare viene analizzato il caso del polinomio universale di grado n.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Una teoria di unificazione ha il notevole compito di fornire un modello in grado di unificare le forze fondamentali della natura in una sola. Storicamente uno dei primi tentativi è rappresentato dal modello di Kaluza, che propone una formulazione unificata di gravità ed elettromagnetismo. In 4 dimensioni il campo gravitazionale e il campo elettromagnetico sono entità nettamente separate. Tale dualismo può essere superato estendendo la teoria della Relatività Generale ad uno spaziotempo a 5 dimensioni. Se alle consuete 4 si aggiunge una quinta dimensione spaziale, allora si dimostra che la gravità e l’elettromagnetismo possono essere visti come la manifestazione di un unico campo di forza, che è interpretabile in termini della geometria dello spaziotempo a 5 dimensioni. Nonostante i suoi intrinseci limiti, il modello di Kaluza rappresenta comunque un punto di partenza per molte altre teorie di campo unificato più moderne e a più di 5 dimensioni. L'obiettivo è di sviluppare le linee fondamentali del modello di Kaluza. Preliminarmente si riportano i risultati principali dell'elettromagnetismo e della Relatività Generale, dato che il modello si formula a partire da questi. Si stabilisce la condizione di cilindro, secondo cui le quantità fisiche non subiscono variazioni nella quinta dimensione. Si ipotizza un ansatz per il tensore metrico 5D e si scrivono le equazioni di campo unitario e della geodetica, come estensioni a 5 dimensioni di quelle in 4. Si dimostra che il campo unitario in 4 dimensioni si separa nel campo scalare costante, nel campo elettromagnetico e nel campo gravitazionale. Le componenti quadridimensionali della geodetica 5D riconducono a quella 4D e alle leggi del moto 4D in presenza dei campi gravitazionale ed elettromagnetico. Inoltre si interpreta la carica elettrica come la quinta componente della velocità covariante 5D.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Si dimostra che una classe di trasformazioni espandenti a tratti sull'intervallo unitario soddisfa le ipotesi di un teorema di analisi funzionale contenuto nell'articolo "Rare Events, Escape Rates and Quasistationarity: Some Exact Formulae" di G. Keller e C. Liverani. Si considera un sistema dinamico aperto, con buco di misura epsilon. Se al diminuire di epsilon i buchi costituiscono una famiglia decrescente di sottointervalli di I, e per epsilon che tende a zero essi tendono a un buco formato da un solo punto, allora il teorema precedente consente di dimostrare la differenziabilità del tasso di fuga del sistema aperto, visto come funzione della dimensione del buco. In particolare, si ricava una formula esplicita per l'espansione al prim'ordine del tasso di fuga .

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nella tesi vengono introdotte le varietà differenziabili per poter trattare un problema di immergibilità di varietà differenziabili. Viene data una dimostrazione di un teorema di Whitney nel caso di varietà differenziabili compatte. Il teorema stabilisce che per una varietà compatta di dimensione n esiste un embedding nello spazio euclideo di dimensione 2n+1. Whitney stesso ha migliorato questo risultato, dimostrando che una varietà differenziabile può essere immersa tramite un embedding nello spazio euclideo di dimensione 2n. Nella tesi vengono dati alcuni esempi di questo miglioramento del teorema.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La presente tesi si propone di dimostrare come l'arte costituisca un valido strumento di promozione della cultura sorda, favorendone l'integrazione nella società. Una volta sfatati i pregiudizi e i luoghi comuni sulla lingua dei segni, l'elaborato passa dunque in rassegna innovativi approcci artistici e inusuali commistioni quali la musica visiva e le compagnie di teatro bilingui. La marcata dimensione visiva di questa lingua la avvicina inevitabilmente al teatro, ambito prediletto della corporeità, che ci porta verso un linguaggio fisico e, pertanto, anche verso una lingua fisica. In conclusione, si analizza pertanto la potenza comunicativa del corpo attraverso le visioni di diversi teatri e registi che, in qualche modo, innalzano il gesto a segno.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo studio effettuato riguarda l’accrescimento giornaliero della Sardina pilchardus, (Walbaum, 1792) tramite la lettura degli anelli di crescita giornaliera negli otoliti. Nel Mediterraneo centrale il lavoro svolto è il primo di questo tipo su S. pilchardus. Il campionamento è avvenuto durante la campagna oceanografica "Anchevatir 2012", 69 otoliti sono stati estratti da esemplari con lunghezza totale compresa tra 7 ed 12.5 cm e successivamente sottoposti ad inclusione, sezionamento e levigatura per la realizzazione di sezioni sottili. Sull’intero campione è stata stimata l’età con due metodi: lettura degli anelli giornalieri sotto microscopio e conteggio dei microincrementi tramite analisi d’immagine. L’età stimata è compresa tra i 90 e 230 giorni, tuttavia la maggior parte degli individui presenta un’età tra i 120 e 150 giorni. Inoltre è stata determinata la data di nascita degli esemplari, avvenuta tra Dicembre 2011 e Febbraio 2012. In seguito è stata condotta un’analisi della media dell’ampiezza degli incrementi per descrivere i pattern di crescita giornaliera: l’andamento risultante è crescente con il procedere dell’età fino a circa il 50° giorno, poi si stabilizza fino al 150°, infine i valori medi decrescono. La backcalculation ha permesso di stimare il tasso di accrescimento giornaliero della lunghezza del corpo. Sono state analizzate tre serie distinte per data di nascita (Dicembre 2011, Gennaio 2012 e Febbraio 2012); queste hanno mostrato pattern di accrescimento analogo. La crescita iniziale stimata è di 0.2 mm/d, raggiunge 0.6 mm/d intorno al 40° giorno, ed oltre il 100° si è osservato un decremento nell’accrescimento giornaliero, soprattutto nella serie di Dicembre. Le differenze più rilevanti nei pattern delle tre serie mensili sono state riscontrate nei valori medi fra Dicembre e Febbraio. L’analisi della temperatura media superficiale ha permesso di ipotizzare che questa crescita maggiore degli individui nati in Febbraio sia collegata all’aumento di temperatura registrato da Marzo in poi. Tale risultato suggerisce che le condizioni ambientali e quindi i ritmi metabolici e d’accrescimento nei mesi successivi a Febbraio sono più favorevoli rispetto ai mesi invernali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La presente tesi esamina le caratteristiche geologico-tecniche della frana avvenuta il 3 dicembre 2013 in Montescaglioso (Matera) . Il fenomeno franoso ha determinato l’interruzione della strada a “scorrimento veloce” che collega l’abitato di Montescaglioso con la valle del Fiume Bradano, sede delle principali arterie di comunicazione del Comune. Inoltre sono stati del tutto compromessi i servizi della rete gas, della rete di smaltimento delle acque nere e, limitatamente all’area circoscritta, anche della rete elettrica. Numerosi sono i danni causati alle unità abitative e commerciali, alcune delle quali sono state completamente distrutte. L’eccezionalità dell’evento franoso, determinata sia dalla dimensione della massa coinvolta, che dai danni provocati alle infrastrutture, ha reso da subito indispensabile il coinvolgimento di strutture statali e regionali che insieme al comune di Montescaglioso hanno istituito un tavolo tecnico permanente per far fronte all’emergenza in essere. In particolare la tesi si occupa della ricostruzione geologica, geomorfologica e idrogeologica pre e post frana , utili per comprenderne le dinamiche morfo-evolutive del fenomeno.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.