1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
Questa tesi introduce alla teoria delle rappresentazioni dei gruppi finiti. Il primo capitolo mostra che lo studio delle rappresentazioni di un dato gruppo può essere ridotto a quello delle rappresentazioni irriducibili. Il secondo capitolo, utilizzando la teoria del carattere, determina il numero di rappresentazioni irriducibili del gruppo. Il terzo capitolo, attraverso l'algebra di gruppo, individua alcune proprietà della dimensione delle rappresentazioni irriducibili. Infine, nell'ultimo capitolo, vengono trattate le rappresentazioni irriducibili dei gruppi simmetrici S_3 e S_4.
Resumo:
Nel corso di questa tesi si svilupperà il metodo del Beam-forming acustico, uno dei più semplici algoritmi di elaborazione segnale che permette di isolare spazialmente un suono proveniente da una precisa direzione decisa da noi, creando quindi un microfono super-direzionale orientabile a partire da un array microfonico di caratteristiche note. Inoltre si implementerà in modo pratico l'algoritmo per descrivere il livello sonoro emesso da ogni punto di una sorgente sonora estesa in modo da mappare l'intensità di quest'ultima in un'immagine 2D da sovrapporre all'immagine stessa dell'oggetto. Volendo schematizzare in breve questa tesi, essa è composta da una prima parte teorica contenente gli argomenti che ci servono per descrivere lo spazio acustico e le onde acustiche, una seconda parte riguardante i microfoni e i suoi vari parametri, una terza parte riguardante la teoria sull'elaborazione segnale nel dominio del tempo e delle frequenze e in particolare cenni sulla trasformata di Fourier. Nella parte successiva verranno descritti i due principali metodi di Beam-forming acustico trattando sia gli apparati di misura sia i due algoritmi, facendo sempre riferimento alle parti di teoria necessarie alla spiegazione del metodo. Infine nell'ultima parte della tesi verrà discusso in primo luogo la creazione del microfono virtuale, in particolare parleremo della sua sensibilità in funzione della direzione avvalendoci di uno schema che in letteratura viene denominato Beam-pattern, in secondo luogo parleremo di come creare la mappa 2D dove effettivamente possiamo vedere l'intensità sonora dell'onda proveniente da ogni punto dell'oggetto preso in considerazione.
Resumo:
Nel 2004 due Fisici dell’Università di Manchester, nel Regno Unito, isolarono per la prima volta un materiale dallo spessore di un singolo atomo: il grafene. Questo materiale, composto da un reticolo di atomi di carbonio disposti a nido d’ape, possiede interessanti proprietà chimiche e fisiche, tra le quali una elevata resistenza chimica e meccanica, un eccellente trasporto termico ed elettrico ed un’ elevata trasparenza. Il crescente fermento attorno al grafene ha suscitato un forte interesse a livello europeo, al punto che la Comunità Europea ha approvato due dei più grandi progetti di ricerca mai finanziati in Europa, tra questi il Graphene Flagship Project (www.graphene-flagship.eu) che coinvolge oltre 120 gruppi di ricerca da 17 Stati Europei e distribuirà nei prossimi anni 1,000 milioni di euro per lo sviluppo di tecnologie e dispositivi a base grafene. Con Flagship Grafene l’Europa punta sul grafene, e lo fa in grande. L’obiettivo è dunque ambizioso. Il suddetto materiale è infatti non solo il più sottile che conosciamo, con uno spessore di un atomo di carbonio, ma è anche 100 volte più resistente dell’acciaio e al tempo stesso flessibile. E’ Inoltre trasparente e conduce l’energia elettrica e termica molto meglio del rame. Ergo, il grafene offre le stesse performance dei materiali usati attualmente nei nostri dispositivi, con l’aggiunta però di ulteriori funzionalità.
Resumo:
Lo scopo di questa tesi è illustrare il paradigma dell’inflazione cosmologica descrivendo in particolare la teoria dell’inflazione R^2. In una prima sezione si fa riferimento al contesto della relatività generale per descrivere l’universo su larga scala. Vengono prese in esame le ipotesi utilizzate per ottenere il modello standard della cosmologia e le principali proprietà che da esso possono essere ricavate. Si focalizza quindi l’analisi sulla descrizione dell’universo primordiale da cui traggono origine le ipotesi dell’esistenza dell’epoca inflazionaria esponendo, in particolare, come questa teoria riesca a risolvere i problemi della piattezza e dell’orizzonte cosmologico. Viene poi descritto come la fase di espansione esponenziale richiesta da queste ipotesi possa essere generata dalla presenza di un campo scalare φ specifico. Particolare risalto è dato alla descrizione dell’approssimazione di ”slow-roll” ed ai vincoli sul numero di ”e-folding”. Una seconda sezione mostra l’applicazione dell’analisi generale esposta in precedenza al modello di inflazione di Starobinsky. A tal fine sono descritte le caratteristiche delle teorie della gravità f(R) con particolare attenzione alle trasformazioni conformi e scelta del frame. Attraverso l’esposizione delle equazioni di campo cosmologiche nella teoria della gravità R^2 si mostra come il processo di espansione inflazionaria dell’universo nelle sue fasi iniziali possa essere descritto da un comportamento non standard della gravità ad alte energie. Sono riportati i risultati principali ottenuti con questa teoria nel frame di Jordan e in quello di Einstein. La conclusione descrive in sintesi lo stato attuale delle osservazioni sperimentali e come queste abbiano un legame stretto con la teoria delle perturbazioni cosmologiche. In particolare, presentando i risultati ottenuti nel contesto dell’inflazione R^2 ed esponendo gli ultimi dati raccolti dall’esperimento Planck, si analizza come il modello sia in accordo con i dati sperimentali attualmente disponibili.
Resumo:
L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.
Resumo:
Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.
Resumo:
La tesi è dedicata allo studio delle rappresentazioni delle algebre di Lie semisemplici su un campo algebricamente chiuso di caratteristica zero. Mediante il teorema di Weyl sulla completa riducibilità, ogni rappresentazione di dimensione finita di una algebra di Lie semisemplice è scrivibile come somma diretta di sottorappresentazioni irriducibili. Questo permette di poter concentrare l'attenzione sullo studio delle rappresentazioni irriducibili. Inoltre, mediante il ricorso all'algebra inviluppante universale si ottiene che ogni rappresentazione irriducibile è una rappresentazione di peso più alto. Perciò è naturale chiedersi quando una rappresentazione di peso più alto sia di dimensione finita ottenendo che condizione necessaria e sufficiente perché una rappresentazione di peso più alto sia di dimensione finita è che il peso più alto sia dominante. Immediata è quindi l'applicazione della teoria delle rappresentazioni delle algebre di Lie semisemplici nello studio delle superalgebre di Lie, in quanto costituite da un'algebra di Lie e da una sua rappresentazione, dove viene utilizzata la tecnica della Z-graduazione che viene utilizzata per la prima volta da Victor Kac nello studio delle algebre di Lie di dimensione infinita nell'articolo ''Simple irreducible graded Lie algebras of finite growth'' del 1968.
Resumo:
Si inizia generalizzando la teoria dei gruppi a categorie qualsiasi, quindi senza necessariamente un insieme sostegno, studiando anche i cogruppi, ovvero gli oggetti duali dei gruppi, e caratterizzando in termini categoriali tali strutture. Vengono poi studiati oggetti topologici con la struttura di gruppo generalizzato vista inizialmente, compatibile con la struttura topologica. L'utilità degli H-gruppi e dei co-H-gruppi è specialmente in topologia algebrica, dove la struttura di questi oggetti fornisce molte informazioni sul loro comportamento, in termini di gruppi di omotopia e di più generici gruppi di mappe fra loro e altri spazi. Vengono poi dati esempi di questi oggetti, e si studia come i co-H-gruppi, in particolare, permettono di definire i gruppi di omotopia e di dimostrare i risultati fondamentali della teoria dell'omotopia.
Resumo:
Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.
Resumo:
L'indagine ha riguardato il profilo del vento nei primi 30 metri dello strato limite atmosferico stabile nell'ambito della teoria di similarità locale. Ad oggi, diversi esperimenti hanno confermato la validità della teoria per strati-limite su terreni livellati e superfici omogenee. Tali condizioni ideali sono però infrequenti nella realtà ed è perciò importante capire quali siano i limiti della similarità locale per strati-limite su terreni complessi e superfici disomogenee. Entrambe le condizioni sono presenti a Ny-Alesund (Svalbard, Norvegia) dove il Consiglio Nazionale delle Ricerche (CNR), nel 2009, ha installato una torre di 30 m, la Amudsen-Nobile Climate Change Tower (CCT), per lo studio dello strato-limite artico. Il lavoro di tesi ha riguardato misure di vento e turbolenza acquisite sulla CCT da maggio 2012 a maggio 2014. Il confronto tra le velocità del vento misurate dagli anemometri installati sulla CCT, ha rivelato criticità nel dato sonico manifestatesi con sovrastime sistematiche e maggiore erraticità rispetto alle misure provenienti dagli anemometri a elica. Un test condotto fra diversi metodi per il calcolo dei gradienti verticali della velocità del vento ha rivelato scarsa sensibilità dei risultati ottenuti al particolare metodo utilizzato. Lo studio ha riguardato i gradienti verticali adimensionali della velocità del vento nei primi 30-m dello strato limite stabile. Deviazioni significative tra i tra le osservazioni e i valori predetti dalla similarità locale sono state osservate in particolare per i livelli più distanti dal suolo e per valori crescenti del parametro di stabilità z/L (L, lunghezza di Obukhov locale). In particolare, si sono osservati gradienti adimensionali inferiori a quelli predetti dalle più usate relazioni di flusso-gradiente. Tali deviazioni, presenti perlopiù per z/L>0.1, sono state associate ad un effetto di accentuazione della turbolenza da parte delle irregolarità del terreno. Per condizioni meno stabili, z/L<0.1, scarti positivi tra i gradienti osservati e quelli attesi sono stati attribuiti alla formazione di strati limite interni in condizioni di vento dal mare verso la costa. Sono stati proposti diversi metodi per la stima dell'effetto della self-correlazione nella derivazione delle relazioni di flusso-gradiente, dovuta alla condivisione della variabile u*. La formula per il coefficiente lineare di self correlazione e le sue distribuzioni di probabilità empiriche sono state derivate e hanno permesso di stimare il livello di self-correlazione presente nel dataset considerato.
Resumo:
In questo lavoro di tesi si indaga come gli acceleratori di particelle si siano rivelati di fondamentale utilità nel settore medico-sanitario, risolvendo problematiche fisiche ed economiche legate alla produzione di radioisotopi. Per riuscire ad effettuare procedure terapeutiche e diagnostiche di qualità senza ricondursi a tecniche invasive, sta diventando sempre più importante disporre di ciclotroni nelle vicinanze delle strutture ospedaliere. Di fronte alla carenza di radionuclidi e alla necessità di produrre nuovi radiofarmaci, il mondo si sta muovendo per affiancare ai pochi reattori nucleari rimasti operativi, progetti nati dalla collaborazione di diversi centri di ricerca. In particolare in Italia è in corso un progetto, il TECHN-OPS, portato avanti da diverse sezioni INFN (compreso quella di Bologna), che si pone l’obiettivo di supplire al bisogno di 99m-Tc sfruttando una rete limitata di ciclotroni (che utilizzano bersagli di molibdeno arricchito) e lo sviluppo di metodi di riciclo di 100-Mo e di ottimizzazione delle varie fasi di produzione.
Resumo:
L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.
Resumo:
Negli ultimi dieci anni si è rinnovata l’esigenza di sviluppare nuove tecnologie legate alla telemedicina, specie a seguito dello sviluppo dei sistemi di telecomunicazione che consentono ad ogni persona di avere a disposizione sistemi portatili, come gli smartphone, sempre connessi e pronti a comunicare. Lo stesso sviluppo si è avuto all’interno dei sistemi sanitari in cui è diventato fondamentale informatizzare le attività ospedaliere per via del contesto demografico a cui si va incontro: invecchiamento della popolazione e aumento del numero di pazienti affetti da malattie croniche. Tutti questi aspetti portano all’attuazione di un cambiamento strategico. Le Body Area Network, fulcro di questo lavoro di tesi, rappresentano la risposta a questa necessità. Si spiegano l'architettura e le tecnologie abilitanti per la realizzazione di queste reti di sensori, gli standard di comunicazione tramite i quali avviene la trasmissione dei dati e come le reti si interfacciano con i pazienti e le strutture sanitarie. Si conclude con una panoramica sui sensori di una BAN e alcuni esempi in commercio.
Resumo:
Il Cryptolocker è un malware diffuso su scala globale appartenente alla categoria ransomware. La mia analisi consiste nel ripercorrere le origini dei software maligni alla ricerca di rappresentanti del genere con caratteristiche simili al virus che senza tregua persevera a partire dal 2013: il Cryptolocker. Per imparare di più sul comportamento di questa minaccia vengono esposte delle analisi del malware, quella statica e quella dinamica, eseguite sul Cryptolocker (2013), CryptoWall (2014) e TeslaCrypt (2015). In breve viene descritta la parte operativa per la concezione e la configurazione di un laboratorio virtuale per la successiva raccolta di tracce lasciate dal malware sul sistema e in rete. In seguito all’analisi pratica e alla concentrazione sui punti deboli di queste minacce, oltre che sugli aspetti tecnici alla base del funzionamento dei crypto, vengono presi in considerazione gli aspetti sociali e psicologici che caratterizzano un complesso background da cui il virus prolifica. Vengono confrontate fonti autorevoli e testimonianze per chiarire i dubbi rimasti dopo i test. Saranno questi ultimi a confermare la veridicità dei dati emersi dai miei esperimenti, ma anche a formare un quadro più completo sottolineando quanto la morfologia del malware sia in simbiosi con la tipologia di utente che va a colpire. Capito il funzionamento generale del crypto sono proprio le sue funzionalità e le sue particolarità a permettermi di stilare, anche con l’aiuto di fonti esterne al mio operato, una lista esauriente di mezzi e comportamenti difensivi per contrastarlo ed attenuare il rischio d’infezione. Vengono citati anche le possibili procedure di recupero per i dati compromessi, per i casi “fortunati”, in quanto il recupero non è sempre materialmente possibile. La mia relazione si conclude con una considerazione da parte mia inaspettata: il potenziale dei crypto, in tutte le loro forme, risiede per la maggior parte nel social engineering, senza il quale (se non per certe categorie del ransomware) l’infezione avrebbe percentuali di fallimento decisamente più elevate.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.