233 resultados para quaternioni sottogruppi normali gruppo di Galois
Resumo:
Lo studio è stato effettuato su esemplari di Palinurus elephas, decapodi appartenenti alla famiglia dei Palinuridae. Tali organismi oltre ad essere importanti dal punto di vista bio-ecologico, data l’ampia distribuzione geografica e il ruolo critico che rivestono in numerose reti trofiche marine, costituiscono una risorsa commerciale considerevole in tutto il Mediterraneo. Questo studio nasce dall’assunzione che il rumore di natura antropica potrebbe avere effetti negativi sugli stock di aragoste, andando a mascherare sia il suono del fondo marino, avente un ruolo di orientamento nelle fasi larvali di molti decapodi, sia i suoni d’importanza bio-ecologica prodotti da conspecifici e non. Negli ultimi anni si sono indagati i meccanismi d’emissione acustica di Palinurus elephas dimostrando che questi stimoli sonori, chiamati Rasp (range di frequenza = 2-75 kHz), avvengono in associazione a comportamenti anti-predatoriali, ossia in tutti quei comportamenti che implicano un movimento dell’apparato antennale. Tuttavia ben poco si conosce sull’ecologia di questa specie, in particolare per quanto concerne la comunicazione intraspecifica e l’abilità di questi animali nella percezione di segnali acustici (inclusi quelli emessi da conspecifici) a diverse frequenze. Nel corso di questo studio si sono volute indagare le risposte comportamentali di questo crostaceo a suoni di diversa natura: Sweep Basso = 0.1-20 kHz; Sweep Alto = 20-80 kHz; Rasp = 2-75 kHz, desumendo la sensibilità di questa specie a spettri sonori diversi in frequenza e ampiezza. Le alterazioni del comportamento sono state monitorate e analizzate attraverso filmati audio-visivi. Nella fase sperimentale, sono state valutate 6 diverse variabili comportamentali: Distanza Percorsa, Mobilità, Velocità, Movimento, Tail Flip ed Emissioni Acustiche, al fine di evidenziare eventuali differenze significative tra i gruppi esposti a uno dei tre segnali e il gruppo di controllo.
Resumo:
L'argomento di questa tesi è il paragone tra la Praxe in Portogallo e la Goliardia in Italia. Con Praxe si intende un gruppo di studenti universitari che cerca di integrare gli altri studenti, le cosiddette matricole, all'interno dell'università e della città in cui studiano. Per ogni università ci sono tante Praxe e ognuna ha le proprie regole da seguire. Non esiste quindi un'unica Praxe portoghese ma tante diverse. La Goliardia in Italia è sempre un gruppo di studenti universitari che si ritrovano per stare insieme, fare festa e parlare di argomenti di qualsiasi genere. Anche la Goliardia è composta da vari gruppi che hanno la propria struttura e le proprie regole. Lo scopo principale di questi due gruppi è quello di far sì che gli studenti si trovino bene facendo parte di un gruppo che diventa una specie di seconda famiglia. Ho deciso di scrivere la tesi su questo argomento perché, essendo stata in Erasmus in Portogallo, mi ha colpita molto vedere gli studenti vestiti in un determinato modo perché membri della Praxe. In seguito ho deciso di fare questo paragone con la Goliardia perché una ragazza mi ha detto che è ancora in voga in molte città italiane. Il paragone si focalizza sulla Praxe di Aveiro, la città in cui sono stata in Erasmus, e la Goliardia di Bologna, che è la città dove vivo.
Resumo:
Tradurre testi di brani musicali è il fulcro di questo lavoro. Il contesto è il Brasile, la città di Belo Horizonte, una realtà periferica e un gruppo di cantanti e musicisti di samba. Questo è il quadro ritratto del documentario preso in esame “Roda” di Carla Maia e Raquel Junquera e del quale si propone qui la sua traduzione integrale dal portoghese all'italiano per il sottotitolaggio (per il quale si sono seguiti i riferimenti del libro “Teoría y práctica de la subtitulación: Inglés-Español” di Jorge Díaz Cintas). Dopo una panoramica generale del samba come stile musicale e fenomeno culturale, in questa tesi si affrontano tematiche e complessità legate alla traduzione di canzoni e del genere filmico del documentario proponendo esempi specifici e spunti teorici. Inoltre, vengono inclusi argomenti quali registro, fraseologia e umorismo. Sono infine illustrati i metodi e gli strumenti usati per la realizzazione di questo lavoro.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Un'interfaccia cervello-computer (BCI: Brain-Computer Interface) è un sistema di comunicazione diretto tra il cervello e un dispositivo esterno che non dipende dalle normali vie di output del cervello, costituite da nervi o muscoli periferici. Il segnale generato dall'utente viene acquisito per mezzo di appositi sensori, poi viene processato e classificato estraendone così le informazioni di interesse che verranno poi utilizzate per produrre un output reinviato all'utente come feedback. La tecnologia BCI trova interessanti applicazioni nel campo biomedico dove può essere di grande aiuto a persone soggette da paralisi, ma non sono da escludere altri utilizzi. Questa tesi in particolare si concentra sulle componenti hardware di una interfaccia cervello-computer analizzando i pregi e i difetti delle varie possibilità: in particolar modo sulla scelta dell'apparecchiatura per il rilevamento della attività cerebrale e dei meccanismi con cui gli utilizzatori della BCI possono interagire con l'ambiente circostante (i cosiddetti attuatori). Le scelte saranno effettuate tenendo in considerazione le necessità degli utilizzatori in modo da ridurre i costi e i rischi aumentando il numero di utenti che potranno effettivamente beneficiare dell'uso di una interfaccia cervello-computer.
Resumo:
Le vene giugulari interne sembrano essere la via principale attraverso cui il sangue defluisce dal cervello verso il cuore, quando siamo in posizione supina. Nel 2008 il professor Paolo Zamboni ha scoperto che una diminuzione dell'attività giugulare può portare allo sviluppo di una condizione emodinamica chiamata CCSVI. Questa può causare ipossia, ritardi nella perfusione cerebrale e riduzione del drenaggio dei cataboliti, oltre ad un'attivazione infiammatoria delle piccole vene e dei tessuti vicini. Questa condizione è stata da subito associata alla sclerosi multipla e su questo argomento si sono dibattuti molti gruppi di ricerca. Inoltre, altre patologie sembrano essere associate alla CCSVI, come il morbo di Parkinson, l'Alzheimer e la sindrome di Meniere. Proprio quest'ultima è uno degli argomenti che attualmente interessa di più il gruppo di lavoro in cui mi sono inserita. Questa patologia comporta problemi uditivi, come sordità e tinnito, vertigini e nausea. Il gruppo Vascolar Disease Center (VDC) dell'Università di Ferrara ha previsto per l'anno 2015 uno studio multicentrico, in cui si cercherà di verificare la correlazione tra CCSVI e sindrome di Meniere. La mia tesi fa parte di un studio preliminare a quello multicentrico. All'inizio del lavoro mi sono dedicata ad un'analisi critica di un modello emodinamico per la quantificazione dei flussi sanguigni: il modello BMC, pubblicato nel 2013 dal gruppo VDC, effettuando in parallelo una ricerca bibliografica sullo stato dell'arte in materia. In seguito ho cominciato a studiare off-line diversi studi patologici e fisiologici, in modo da prendere confidenza con gli strumenti e con le metodologie da utilizzare. Sono stata poi coinvolta dal gruppo VDC per partecipare attivamente al miglioramento del protocollo legato al modello BMC. Infine ho analizzato, con due metodologie differenti, 35 studi effettuati su pazienti otorinolaringoiatrici. Con i risultati ottenuti ho potuto effettuare diverse analisi statistiche al fine di verificare l'equivalenza delle due metodologie. L'obiettivo ultimo era quello di stabilire quale delle due fosse la tecnica migliore da utilizzare, successivamente, nello studio multicentrico.
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
In questa tesi sono state applicate le tecniche del gruppo di rinormalizzazione funzionale allo studio della teoria quantistica di campo scalare con simmetria O(N) sia in uno spaziotempo piatto (Euclideo) che nel caso di accoppiamento ad un campo gravitazionale nel paradigma dell'asymptotic safety. Nel primo capitolo vengono esposti in breve alcuni concetti basilari della teoria dei campi in uno spazio euclideo a dimensione arbitraria. Nel secondo capitolo si discute estensivamente il metodo di rinormalizzazione funzionale ideato da Wetterich e si fornisce un primo semplice esempio di applicazione, il modello scalare. Nel terzo capitolo è stato studiato in dettaglio il modello O(N) in uno spaziotempo piatto, ricavando analiticamente le equazioni di evoluzione delle quantità rilevanti del modello. Quindi ci si è specializzati sul caso N infinito. Nel quarto capitolo viene iniziata l'analisi delle equazioni di punto fisso nel limite N infinito, a partire dal caso di dimensione anomala nulla e rinormalizzazione della funzione d'onda costante (approssimazione LPA), già studiato in letteratura. Viene poi considerato il caso NLO nella derivative expansion. Nel quinto capitolo si è introdotto l'accoppiamento non minimale con un campo gravitazionale, la cui natura quantistica è considerata a livello di QFT secondo il paradigma di rinormalizzabilità dell'asymptotic safety. Per questo modello si sono ricavate le equazioni di punto fisso per le principali osservabili e se ne è studiato il comportamento per diversi valori di N.
Resumo:
Lo scopo di questo lavoro è mostrare la potenza della teoria di Galois per caratterizzare i numeri complessi costruibili con riga e compasso o con origami e la soluzione di problemi geometrici della Grecia antica, quali la trisezione dell’angolo e la divisione della circonferenza in n parti uguali. Per raggiungere questo obiettivo determiniamo alcune relazioni significative tra l’assiomatica delle costruzioni con riga e compasso e quella delle costruzioni con origami, antica arte giapponese divenuta recentemente oggetto di studi algebrico-geometrici. Mostriamo che tutte le costruzioni possibili con riga e compasso sono realizzabili con il metodo origami, che in più consente di trisecare l’angolo grazie ad una nuova piega, portando ad estensioni algebriche di campi di gradi della forma 2^a3^b. Presentiamo poi i risultati di Gauss sui poligoni costruibili con riga e compasso, legati ai numeri primi di Fermat e una costruzione dell’eptadecagono regolare. Concludiamo combinando la teoria di Galois e il metodo origami per arrivare alla forma generale del numero di lati di un poligono regolare costruibile mediante origami e alla costruzione esplicita dell’ettagono regolare.
Resumo:
Il crescente utilizzo di sistemi di analisi high-throughput per lo studio dello stato fisiologico e metabolico del corpo, ha evidenziato che una corretta alimentazione e una buona forma fisica siano fattori chiave per la salute. L'aumento dell'età media della popolazione evidenzia l'importanza delle strategie di contrasto delle patologie legate all'invecchiamento. Una dieta sana è il primo mezzo di prevenzione per molte patologie, pertanto capire come il cibo influisce sul corpo umano è di fondamentale importanza. In questo lavoro di tesi abbiamo affrontato la caratterizzazione dei sistemi di imaging radiografico Dual-energy X-ray Absorptiometry (DXA). Dopo aver stabilito una metodologia adatta per l'elaborazione di dati DXA su un gruppo di soggetti sani non obesi, la PCA ha evidenziato alcune proprietà emergenti dall'interpretazione delle componenti principali in termini delle variabili di composizione corporea restituite dalla DXA. Le prime componenti sono associabili ad indici macroscopici di descrizione corporea (come BMI e WHR). Queste componenti sono sorprendentemente stabili al variare dello status dei soggetti in età, sesso e nazionalità. Dati di analisi metabolica, ottenuti tramite Magnetic Resonance Spectroscopy (MRS) su campioni di urina, sono disponibili per circa mille anziani (provenienti da cinque paesi europei) di età compresa tra i 65 ed i 79 anni, non affetti da patologie gravi. I dati di composizione corporea sono altresì presenti per questi soggetti. L'algoritmo di Non-negative Matrix Factorization (NMF) è stato utilizzato per esprimere gli spettri MRS come combinazione di fattori di base interpretabili come singoli metaboliti. I fattori trovati sono stabili, quindi spettri metabolici di soggetti sono composti dallo stesso pattern di metaboliti indipendentemente dalla nazionalità. Attraverso un'analisi a singolo cieco sono stati trovati alti valori di correlazione tra le variabili di composizione corporea e lo stato metabolico dei soggetti. Ciò suggerisce la possibilità di derivare la composizione corporea dei soggetti a partire dal loro stato metabolico.
Resumo:
In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.
Resumo:
In questa tesi, che si colloca nell'ambito della topologia algebrica, si affronta l'approccio allo studio delle 3-varietà mediante il concetto di rivestimento. In particolare si studiano i rivestimenti ramificati il cui l'insieme di ramificazione è un link. Il tema centrale della tesi è il teorema di Hilden-Montesinos, che in particolare tratta di rivestimenti ramificati di ordine 3 semplici. Per questo si affronta il concetto di monodromia e di gruppo di un link. L'ultima parte descrive il problema di trovare equivalenze tra diagrammi colorati che rappresentano 3-varietà, mostrando infine una possibile soluzione trovata da Riccardo Piergallini.
Resumo:
In adroterapia vengono usati fasci di ioni (protoni e ioni carbonio) per il trattamento di tumori profondi; queste particelle possiedono molti vantaggi rispetto ai fotoni utilizzati nella radioterapia convenzionale. Il profilo dose-profondità di questi ioni è caratterizzato da una bassa dose nel canale di entrata e da un massimo molto pronunciato (picco di Bragg) nei pressi della fine del loro percorso: poiché l’ascissa di tale massimo dipende dall’energia del fascio, essa può essere cambiata semplicemente variando tale parametro. Inoltre, grazie alla carica elettrica posseduta da queste particelle, è possibile controllare sempre meglio anche le restanti due dimensioni riuscendo ad indirizzare il fascio sul target con precisione notevole riuscendo così a risparmiare i tessuti sani e le strutture critiche del nostro organismo. Mentre la protonterapia, grazie ai quasi cinquanta centri attualmente in funzione, sta diventando uno dei trattamenti standard per la cura dei tumori più difficili, la terapia con ioni carbonio è ancora ristretta a meno di dieci strutture, una delle quali è il CNAO con sede a Pavia. L’utilizzo di ioni carbonio presenta ulteriori vantaggi rispetto ai protoni, tra i quali un picco di Bragg con una larghezza minore e un diverso effetto radiobiologico: ciò rende gli ioni carbonio l’unica opzione praticabile nel trattamento di tumori radioresistenti. Questo lavoro è una rassegna dei sistemi e dei metodi utilizzati in adroterapia e del loro sviluppo: se ne evince che l’ostacolo maggiore alla diffusione di questa pratica è rappresentato dall’elevato costo del trattamento. La Sezione di Bologna dell’INFN e il Dipartimento di Fisica e Astronomia dell’Università di Bologna possiedono competenze relativamente a diverse tecnologie avanzate, tra cui il progetto per acceleratori "tascabili", che potrebbero ridurre drasticamente il costo della terapia. In tale ambito, la presente tesi costituisce uno studio preliminare alla costituzione di un gruppo di ricerca sull’adroterapia a Bologna in piena collaborazione con altre Sezioni dell’INFN, con le Divisioni di Radioterapia ospedaliere e con altre realtà nazionali ed internazionali.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’influenza della marinatura su alcuni aspetti microbiologici e chimico-fisici correlati alla qualità della carne di petto di pollo confezionata sottovuoto durante un periodo di stoccaggio di 14 giorni in condizioni refrigerate. Dalle analisi microbiologiche, è emerso che, nonostante l’aumento di pH dovuto all’azione alcalinizzante del bicarbonato, la shelf-life del prodotto marinato è rimasta invariata rispetto al gruppo di controllo non-marinato ed è stata pari a circa 14 giorni. Dal punto di vista tecnologico, gli ingredienti funzionali aggiunti nella soluzione di marinatura hanno consentito di ottenere livelli di perdite di cottura nel prodotto finito simili a quelli delle carni non-marinate durante tutto il periodo di conservazione. Ciò è riconducibile al notevole aumento della solubilità delle proteine miofibrillari determinato dall’effetto sinergico di cloruro di sodio e bicarbonato. Tuttavia, i prodotti marinati hanno mostrato maggiori perdite di liquido nelle confezioni e questo aspetto può condizionare negativamente la propensione all’acquisto da parte del consumatore. Gli effetti rilevati sul colore non costituiscono invece un elemento determinante nella scelta dei prodotti avicoli confezionati sottovuoto. Infine, è stato escluso qualsiasi effetto negativo della marinatura nei confronti della stabilità ossidativa dei lipidi. I risultati ottenuti in questo lavoro di tesi hanno pertanto dimostrato che è possibile realizzare un prodotto marinato a base di carne di petto di pollo stabile durante la conservazione offrendo così al consumatore un alimento con caratteristiche sensoriali di succulenza e tenerezza superiori e con una maggiore facilità d’uso. Restano da ottimizzare alcuni aspetti legati alla presentazione del prodotto soprattutto in relazione alla presenza di liquido nelle confezioni.
Resumo:
Nel testo viene esposta la presa di decisione nella robotica collettiva, cioè il comportamento collettivo esibito dagli animali sociali in sciame migrato in un gruppo di robot. Questa tesi si prefigge di analizzare come un insieme di individui, all'interno di un gruppo, possano giungere tutti ad avere una stessa opinione comune, o come essi siano in grado di dividersi autonomamente il lavoro senza alcun bisogno di controllo centrale. Inizialmente, viene introdotta la robotica collettiva, esponendone origini, caratteristiche e ambiti di ricerca. Viene in seguito presentato il collective decision making, all'interno del comportamento collettivo generale, esponendone le origini biologiche fino ai primi esperimenti su dei semplici robot. Vengono poi analizzati i due aspetti del decision making, vale a dire il raggiungimento del consenso e la suddivisione del lavoro. Per entrambi gli argomenti, sono presentati studi sia di carattere biologico che robotico, allo scopo di trarne similitudini e differenze e realizzare una valida analisi critica. Infine, vengono esposti i possibili sviluppi del comportamento e della robotica collettiva, mostrando possibili scenari di utilizzo futuro e gli attuali limiti allo sviluppo.