979 resultados para sub-Laplaciano gruppi di tipo H unique continuation principio di indeterminazione
Resumo:
La prima parte dello studio riguarda la descrizione dell’origine e delle caratteristiche che differenziano la periodizzazione tradizionale e quella a blocchi per l’allenamento della forza. L’obiettivo della seconda parte del lavoro è stato quello di confrontare gli adattamento ormonali e prestativi ad un programma di allenamento della forza periodizzato secondo il modello tradizionale o secondo quello a blocchi in un campione di atleti di forza. Venticinque atleti maschi sono stati assegnati con procedura randomizzata al gruppo con programmazione tradizionale (TP) o a quello a blocchi (BP). Prelievi di saliva sono stati effettuati prima e dopo 6 diverse sedute di allenamento durante il programma al fine di rilevare i livelli di testosterone (T) e cortisolo (C). Le valutazioni dei parametri antropometrici e prestativi sono state effettuate prima e dopo le 15 settimane di allenamento previste. In nessuno dei due gruppi vi sono state variazioni significative nei livelli ormonali. I risultati indicano che il gruppo BP ha ottenuto incrementi superiori a quello TP riguardo alla forza massima (p = 0,040) ed alla potenza (p = 0,035) espressa alla panca piana. Nella terza parte dello studio, la periodizzazione tradizionale e quella a blocchi sono state confrontate riguardo agli effetti sulla forza massima e sull’ipertrofia in donne allenate di livello amatoriale. Diciassette donne hanno partecipato all’esperimento allenandosi 3 volte a settimana per 10 settimane. I risultati dimostrano che entrambe le periodizzazioni hanno portato a miglioramenti significativi di forza e potenza; il gruppo TP ha tuttavia ottenuto incrementi superiori di forza massima (p = 0,039) e ipertrofia degli arti inferiori (p = 0,004). La periodizzazione tradizionale quindi si è dimostrata più efficace per aumentare la forza massima e la sezione muscolare della coscia in partecipanti di genere femminile. I risultati contrastanti nei due generi potrebbero essere legati a rapporti diversi fra processi anabolici e catabolici.
Resumo:
Il carcinoma a cellule basali (BCC) costituisce l'80 peercento dei tumori cutanei non-melanoma, rappresentando dunque il tumore maligno della cute più frequente nella popolazione generale. Tuttavia, non esistono ad oggi studi epidemiologici ampi ed approfonditi condotti su scala nazionale su questo tipo di neoplasia, poichè i tumori cutanei non-melanoma sono esclusi dal registro statistico dei tumori. A tale scopo presso la Dermatologia dell'Università di Bologna sono stati raccolti di tutti i casi di carcinoma basocellulare osservati dal 1 gennaio 1990 sino al 31 dicembre 2014, e sono stati rielaborati statisticamente. Il criterio di inclusione adottato è stato la positività per BCC all’esame istologico, sia in caso di biopsia semplice, sia in caso di asportazione radicale. Il progetto è stato svolto presso l’ambulatorio di chirurgia oncologica della nostra UO, così come il follow-up dei pazienti nei casi di recidività multiple o di comparsa di nuovi tumori cutanei. Ad oggi, tale neoplasia è risultata essere quella di più frequente osservazione nella Unità Operativa di Dermatologia dell’Università di Bologna. Non solo, la nostra casistica rimane quella più numerosa fino ad ora riportata in tutta Italia negli ultimi 24 anni.
Resumo:
Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. Lo scopo che mi propongo con questa tesi è quello quindi di cercare di fare chiarezza in quello che è il mondo del Cloud computing, focalizzandomi particolarmente su quelli che sono i design pattern più utilizzati nello sviluppo di applicazioni di tipo cloud e presentando quelle che oggi rappresentano le principali tecnologie che vengono utilizzate sia in ambito professionale, che in ambito di ricerca, per realizzare le applicazioni cloud, concentrandomi in maniera particolare su Microsoft Orleans.
Resumo:
Le biomasse sono attualmente una promettente alternativa ai combustibili fossili per la produzione di sostanze chimiche e fuels. Nella trasformazione delle biomasse in prodotti chimici un ruolo importante è giocato dai derivati del furfurale; il 5-idrossimetil-2-furfurale (HMF), per esempio, è un precursore chiave per la sintesi di prodotti con applicazioni nell'industria dei polimeri e in campo farmaceutico. Può essere ossidato per ottenere l’acido 2,5-furandicarbossilico (FDCA), un monomero per la sintesi di una nuova classe di polimeri, alternativi a quelli ottenuti da acido tereftalico. Per la preparazione di FDCA da HMF sono stati utilizzati vari catalizzatori e differenti condizioni di reazione; il principale svantaggio è la necessità di sali metallici e solventi organici, che rendono il processo costoso e ad elevato impatto ambientale. Recentemente sono stati trovati catalizzatori di Au supportati, attivi nell’ossidazione del HMF a FDCA; tuttavia la stabilità del catalizzatore e la produttività del processo rimangono basse. Lo scopo del lavoro è stato lo studio di sistemi attivi e stabili nella reazione di ossidazione del HMF a FDCA. In particolare è stato approfondito l’effetto della morfologia del supporto di CeO2, utilizzato per la preparazione di catalizzatori a base di Au e l’influenza della fase attiva sul meccanismo di reazione in sistemi misti Pd/Au. Il lavoro svolto ha avuto come obiettivi: -La preparazione di catalizzatori Au-CeO2 mesoporoso, ottenuto mediante “hard template” e la loro caratterizzazione mediante analisi XRD, HRTEM, BET, XRF, TPR e porosimetriche. Confrontando questi sistemi con catalizzatori di Au-CeO2 commerciale è stato possibile osservare le differenze in termini di attività catalitica e di struttura. -La sintesi di nanoparticelle Pd/Au in lega o core-shell e la loro caratterizzazione mediante analisi DLS, XRF, XRD e HRTEM per comprendere come il tipo di fase attiva formata influisce sull’attività e sul meccanismo di reazione nell’ossidazione di HMF a FDCA.
Resumo:
La classificazione delle algebre di Lie semplici di dimensione finita su un campo algebricamente chiuso si divide in due parti: le algebre di Lie classiche e quelle eccezionali. La differenza principale è che le algebre di Lie classiche vengono introdotte come algebre di matrici, quelle eccezionali invece non si presentano come algebre di matrici ma un modo di introdurle è attraverso il loro diagramma di Dynkin. Lo scopo della tesi è di realizzare l' algebra di Lie eccezionale di tipo G_2 come algebra di matrici. Per raggiungere tale scopo viene introdotta un' algebra di composizione: la cosiddetta algebra degli ottonioni. Quest'ultima viene costruita in due modi diversi: come spazio vettoriale sui reali con un prodotto bilineare e come insieme delle coppie ordinate di quaternioni. Il resto della tesi è dedicato all' algebra delle derivazioni degli ottonioni. Viene dimostrato che questa è un' algebra di Lie semisemplice di dimensione 14. Infine, considerando la complessificazione dell'algebra delle derivazioni degli ottonioni, viene dimostrato che quest'ultima è semplice e quindi isomorfa a G_2.
Resumo:
Scopo della tesi è presentare alcuni aspetti della teoria spettrale per operatori compatti definiti su spazi di Hilbert separabili. Il primo capitolo è dedicato al Teorema di esistenza di una base numerabile di autovettori, per operatori compatti autoaggiunti. Nel secondo capitolo sono presentate alcune applicazioni dirette al Laplaciano. Viene dimostrato il teorema di immersione di Sobolev, e come conseguenza dell'immersione compatta, si prova che l'inverso del Laplaciano su aperti limitati è un operatore compatto autoaggiunto. Conseguentemente viene determinata la base dei suoi autovettori, che in dimensione uno è la classica serie di Fourier. Nel terzo capitolo vengono determinate le espressioni analitiche delle basi di autovettori sul quadrato e il cerchio unitario.
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
Poiché le infestazioni parassitarie dei rettili in cattività possono incidere sulla loro salute, è stato condotto uno studio sui parassiti intestinali e gli ectoparassiti su 213 rettili del Bioparco di Roma. In cattività, dove gli animali sono confinati in piccoli spazi, la concentrazione di parassiti può essere più alta. Alcuni di essi sono innocui, ma altri, specialmente in associazione allo stress, possono essere pericolosi, causare malattie e portare anche alla morte se non trattati. Inoltre, i rettili parassitati hanno una vita più breve, sono più suscettibili ad altre malattie, hanno scarsa fertilità, ridotta crescita ed alta mortalità. Tra Gennaio 2012 e Dicembre 2014 sono stati raccolti campioni da 213 rettili che non mostravano alcun segno clinico e che includevano 23 specie di sauri, 20 specie di cheloni, 20 specie di ofidi e 4 specie di alligatori. I campioni sono stati esaminati per la presenza di parassiti intestinali mediante copromicroscopia di tipo qualitativo previa sedimentazione e successiva flottazione, mentre la tecnica di Zihel-Neelsen è stata usata per la ricerca di oocisti di Cryptosporidium . I campioni di feci sottoposti ad esame copromicroscopico qualitativo sono risultati positivi per almeno una tipologia di endoparassiti nel 49% dei casi. Il 35% dei campioni è risultato positivo per ossiuri, il 22% per coccidi, l’1% per strongili ed il 5% per ascaridi. Degli strisci fecali colorati con la tecnica di Zihel-Neelsen, il 25% sono risultati positivi per Cryptosporidium spp. Ossiuri e coccidi sono stati più prevalenti nei sauri rispetto ai cheloni, agli ofidi e agli alligatori e nel 14% è stata osservata la presenza di entrambi. Inoltre, per quanto riguarda gli ectoparassiti, sono state rilevate uova di Myocoptes musculinus nel 24% dei rettili esaminati. Tutti gli strisci risultati positivi per Cryptosporidium spp. sono stati inviati all’Università di Santiago de Compostela per essere sottoposti alla tecnica PCR.
Resumo:
Lo spazio fra le stelle nelle galassie non è vuoto, ma è composto da gas rarefatto, particelle di polvere, un campo magnetico, elettroni, protoni e altri nuclei atomici relativistici; spesso questi elementi possono essere considerati come un’unica entità di- namica: il mezzo interstellare o più semplicemente ISM. Nel primo capitolo vedremo come il mezzo si distribuisce generalmente all’interno delle galassie a spirale, in fasce di temperatura sempre minore man mano che ci si allontana dal centro (HIM, WIM, WNM, CNM). La conoscenza della distribuzione del mezzo è utile per poter comprendere maggiormente i processi di emissione e le varie zone in cui questi avvengono in una tipica galassia a spirale, che è lo scopo di questa tesi. L’ISM infatti entra in gioco in quasi tutti i processi emissivi, in tutte le bande di emis- sione dello spettro elettromagnetico che andremo ad analizzare. Il nostro modo di vedere le galassie dell’universo è molto cambiato infatti nel corso dell’ultimo secolo: l’utilizzo di nuovi telescopi ci ha permesso di andare ad osservare le galassie anche in bande dello spettro diverse da quella visibile, in modo da raccogliere informazioni impossibili da ottenere con la sola banda ottica. Nel secondo capitolo andremo ad analizzare cinque bande di emissione (banda X, ot- tica, radio, gamma e infrarossa) e vedremo come appaiono tipicamente le galassie a spirale a lunghezze d’onda differenti, quali sono i processi in gioco e come il mezzo interstellare sia fondamentale in quasi ogni tipo di processo. A temperature elevate, esso è responsabile dell’emissione X della galassia, mentre re- gioni più fredde, formate da idrogeno ionizzato, sono responsabili delle righe di emis- sione presenti nello spettro ottico. Il campo magnetico, tramite le sue interazioni con elettroni relativistici è la principale fonte dell’emissione radio nel continuo di una galas- sia a spirale, mentre quella in riga è dovuta a idrogeno atomico o a gas freddo. Vedremo infine come raggi cosmici e polvere, che fanno sempre parte del mezzo inter- stellare, siano rispettivamente la causa principale dell’emissione gamma e infrarossa.
Resumo:
Lo scopo del presente lavoro è quello di analizzare il ben noto concetto di rotazione attraverso un formalismo matematico. Nella prima parte dell'elaborato si è fatto uso di alcune nozioni di teoria dei gruppi nella quale si definisce il gruppo ortogonale speciale in n dimensioni. Vengono studiati nel dettaglio i casi di rotazione in 2 e 3 dimensioni introducendo le parametrizzazioni più utilizzate. Nella seconda parte si introduce l'operatore di rotazione, il quale può essere applicato ad un sistema fisico di tipo quantistico. Vengono infine studiate le proprietà di simmetria di rotazione, definendone le caratteristiche e analizzando il caso particolare del potenziale centrale.
Resumo:
Questo elaborato si concentra sulla serie televisiva americana How I met your mother e sulla traduzione italiana dei titoli degli episodi che la compongono. In particolare, si prederanno in esame quelle proposte traduttive che non rispettano appieno le regole che governano la tipologia testuale del titolo, e verranno proposte soluzioni alternative. In seguito, si analizzeranno alcuni dei titoli appartenenti alla stagione inedita in Italia, per i quali si proporranno delle traduzioni appropriate. Al fine di rendere più concreta questa analisi, una parte della tesi verrà anche dedicata agli aspetti teorici indicati da Maurizio Viezzi riguardo alla tipologia testuale del titolo. Inoltre, si parlerà anche delle varie funzioni individuate dalla studiosa di traduzione Christiane Nord che dovrebbero generalmente regolamentare la traduzione di questo tipo di testo.
Resumo:
In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.
Resumo:
In questo lavoro studiamo le funzioni armoniche e le loro proprietà: le formule di media, il principio del massimo e del minimo (forte e debole), la disuguaglianza di Harnack e il teorema di Louiville. Successivamente scriviamo la prima e la seconda identità di Green, che permettono di ottenere esplicitamente la soluzione fondamentale dell’equazione di Laplace, tramite il calcolo delle soluzioni radiali del Laplaciano. Introduciamo poi la funzione di Green, da cui si ottiene una formula di rappresentazione per le funzioni armoniche. Se il dominio di riferimento è una palla, la funzione di Green può essere determinata esplicitamente, e ciò conduce alla rappresentazione integrale di Poisson per le funzioni armoniche in una palla.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.