184 resultados para Biliardi,sezione aurea, numeri di Fibonacci.
Resumo:
Nella prima sezione di questo lavoro verranno esposti i ragionamenti fisici alla base della scrittura delle equazioni di London-London (1935), capaci di descrivere due importanti fenomeni riguardanti i materiali superconduttori quali la conduttività perfetta (resistenza nulla) e il diamagnetismo perfetto (Effetto Meissner). Verrà in essa infine brevemente descritto l'effetto della più generale conservazione del flusso magnetico nei superconduttori secondo il modello classico. Nella seconda sezione verrà esposto il ragionamento alla base della scrittura del Modello Quantistico Macroscopico, proposto da F.London nel 1948 per cercare di unificare la descrizione elettrodinamica classica della superconduttività con la meccanica quantistica, attraverso la scrittura di una funzione d'onda macroscopica capace di descrivere l'intero ensemble di portatori di carica superelettronici nel loro moto di conduzione.Esso permetterà di prevedere il fenomeno della quantizzazione del flusso magnetico intrappolato da una regione superconduttrice molteplicemente connessa.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.
Resumo:
Il lavoro si propone di definire l’assetto geologico strutturale dell’area compresa tra la Valle del Torrente Cismon ed il Sass de Falares, a nord di Lamon (BL). Le novità che si sono potute aggiungere alla cartografia esistente, dal punto di vista stratigrafico sono: 1) La suddivisione del gruppo dei Calcari Grigi in quattro formazioni presenti più a occidente, quali la formazione di Monte Zugna, la formazione di Loppio, la formazione di Rotzo e la formazione del Grigno che in queste zone non erano ancora state evidenziate. La presenza di diffusi noduli di selce grigio-giallastra presenti nella parte medio-alta della formazione di Monte Zugna che testimoniano la persistenza di un ambiente subtidale nel Lias al passaggio tra Alto di Trento e Bacino Bellunese. 2) La presenza dell’Encrinite di Monte Agaro (Oolite di S.Vigilio) con uno spessore esiguo di 5 m sul Monte Coppolo ed anche in cresta a Sass de Falares. In ambito tettonico: 1) Si è accertato che l’anticlinale del Monte Coppolo è tagliata dalla faglia inversa del M.Piad con direzione circa E – O e immergente a N con un’inclinazione di circa 70° spezzando la piega quasi in cerniera; la si può riconoscere sul versante S ed E del M. Coppolo dove disloca la Fm. di M. Zugna e la Dolomia Principale. 2) Si è ricostruito l’assetto tettonico del Sass de Falares, che risulta essere una scaglia tettonica (duplex) compresa tra la Linea di Sass de Falares e la Linea di Belluno. 3) L’Anticlinale del M. Coppolo si è generata per propagazione di una faglia che corrisponde alla Linea di Sass de Falares che in seguito ha tagliato l’anticlinale con meccanismi di fault bend folding. Infine per ultima si è formata la Linea di Belluno s.s. a basso angolo con un raccorciamento maggiore di 2 km. Il sovrascorrimento di Belluno pertanto non è una struttura unica ma si sfrangia in 3 strutture tettoniche separate: Linea di M.Piad, Linea di Sass de Falares e Linea di Belluno s.s. 4) In Val della Selva è stato invece fatta la scoperta più importante di questo lavoro, visto che si è potuto osservare direttamente il piano principale della Linea di Belluno affiorante sulla strada forestale che porta verso la località Pugnai e quindi studiarlo e tracciarlo con precisione sulla carta. Esso ha direzione N68 ed un inclinazione di 30° verso NNW; mette a contatto la Fm. di M. Zugna con la Maiolica. Nell’affioramento si è potuta definire l’anatomia della zona di taglio con associazioni di piani R, R’, P e tettoniti S-C. 5) La ricostruzione della sezione geologica ci ha permesso di riconoscere l’organizzazione degli strati coinvolti nella deformazione. Attraverso programmi appositi quali Georient e Software Carey sono stati ricostruiti gli assi di massima compressione tramite l’analisi meso-strutturale: essi testimoniano una compressione orientata NNW-SSE, in accordo con l’Evento Valsuganese del Serravalliano-Tortoniano, legato ad un asse compressivo N340 che rappresenta l’evento principale nella regione sudalpina, ma sono stati riconosciuti anche assi di compressione orientati NE-SW e circa E-W correlabili con l’Evento Insubrico del Miocene inf. e con l’Evento Scledense del Messiniano - Pliocene.
Resumo:
Le patologie croniche quali nefropatie, obesità, cardiopatie e diabete, nelle prime fasi del loro sviluppo sono asintomatiche. È stato realizzato un'applicativo web, denominato Viewpoint, in grado di prevedere l'insorgenza dell'insufficienza renale cronica, a partire dai risultati delle analisi di laboratorio, per poter applicare un'azione di prevenzione sui pazienti. Il sistema si avvale di risorse REST e utilizza l'architettura EJB. In particolare, è stata curata la sezione analitica, in grado di visualizzare dati aggregati ed effettuare analisi what-if sul numero dei pazienti e sulle risorse dispensate dal SSN.
Resumo:
In questa tesi si vede una dimostrazione elementare del teorema dei numeri primi. Dopo aver definito le funzioni aritmetiche di Tchebychev theta e psi, si utilizzano le loro proprietà per studiare il comportamento asintotico della funzione di Mertens e infine di pi(x). Inoltre si mostrano alcuni legami tra la zeta di Riemann e la teoria dei numeri e cenni ad altre dimostrazioni del teorema dei numeri primi.
Resumo:
Negli ultimi anni va sempre più affermandosi l’idea che nei test a fatica utilizzati in ambito industriale per testare la resistenza di numerosi prodotti, riprodurre profili vibratori con distribuzioni gaussiane non sia sufficientemente realistico. Nell’indagine sperimentale riportata in questo trattato vengono confrontati gli effetti generati da sollecitazioni leptocurtiche ottenute da misurazioni reali, con profili vibratori gaussiani a parità di RMS e forma della PSD (Power Spectral Density) verificando la validità della “Papoulis rule”. A partire da questi profili vibratori si è effettuata una progettazione ad hoc dalla quale sono stati ricavati dei provini piatti in lega di alluminio a cui è collegata una massa ausiliaria. Quest’ultimi montati a sbalzo su uno shaker elettrodinamico, sono caratterizzati da una variazione di sezione che localizza la sezione critica in prossimità dell’incastro. I provini sono stati inoltre caratterizzati attraverso prove a trazione e test accelerati a fatica, ricavandone la caratteristica a trazione del materiale ed il diagramma di Wohler. In seguito alla descrizione di tali prove viene riportata un’analisi dei provini sollecitati da due profili vibratori, uno gaussiano e uno ad elevato valore di kurtosis, monitorando tramite l’impiego di accelerometri i valori dell’eccitazione e la risposta. Vengono inoltre verificati i valori delle deformazioni dovute alle sollecitazioni imposte collocando due estensimetri in corrispondenza della sezione critica di due provini (uno per ogni tipologia di input).
Resumo:
Questa tesi è incentrata sulla traduzione di un dossier in lingua francese diviso in due parti, pubblicate in due numeri successivi all’interno di una rivista settoriale per neuroscienziati francofoni. Nella fase di selezione del testo ho svolto il ruolo d’ipotetico editore italiano che gestisce una rivista per neuroscienziati italofoni e che vuole rendere disponibili all’interno della comunità neuroscientifica italiana contributi provenienti dall’estero sotto forma di dossier tematici. Nel primo capitolo ho analizzato il dossier basandomi sulla griglia di Tudor, un modello di analisi testuale ideato a scopi didattici per i corsi di traduzione che in questo caso si presta molto bene come strumento di riflessione sulle caratteristiche del testo source. Nel secondo capitolo valuto la macrostrategia traduttiva più idonea per la redazione del testo d’arrivo e approfondisco sia le conoscenze relative al dominio dei microtesti che costituiscono il dossier sia gli aspetti terminologici relativi ai termini inizialmente sconosciuti. Sempre in questo capitolo approfondisco l’analisi terminologica e propongo alcune schede terminologiche. Nel terzo capitolo presento la proposta di traduzione con testo di partenza a fronte. Infine nel quarto capitolo commento il processo traduttivo analizzando la fase di documentazione, la fase di ricerca terminologica e i principali problemi traduttivi.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.
Resumo:
La presente tesi si occupa, da un punto di vista matematico e filosofico, dello studio dei numeri transfiniti introdotti da Georg Cantor. Vengono introdotti i concetti di numero cardinale ed ordinale, la loro aritmetica ed i principali risultati riguardo al concetto di insieme numerabile. Si discutono le nozioni di infinito potenziale ed attuale e quella di esistenza secondo la concezione di Cantor. Viene infine presentata l'induzione transfinita, una generalizzazione al caso transfinito del principio di induzione matematica.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
La tesi riguarda la didattica della matematica e parla del modo di fare didattica negli istituti secondari di secondo grado attraverso l'analisi di un caso particolare: la didattica dei numeri complessi. La didattica verrà analizzata per prima cosa a livello generale attraverso l'esposizione dei punti principali della riforma Gelmini, e, successivamente, in particolare attraverso l'analisi della didattica dei numeri complessi nei licei scientifici. Di quest'ultima verranno presentati: gli strumenti con cui viene svolta, la modalità con cui vengono presentati i concetti, un nuovo metodo per migliorarla e, infine, il modo in cui i ragazzi la percepiscono. Questi elementi si traducono, rispettivamente, nell'analisi del libro `Matematica a colori', nell'esposizione di una lezione-tipo, nella proposta dell'utilizzo della storia della matematica e infine in un questionario posto agli alunni. Quanto emerso verrà confrontato con le indicazioni nazionali di alcuni stati esteri e il tutto verrà utilizzato per `leggere' i risultati del TIMMS ADVANCED 2008.
Resumo:
Questa ricerca si concentra sulla gestione dei sintagmi nominali complessi nell’interpretazione simultanea in italiano dei discorsi inglesi del corpus elettronico EPIC (European Parliament Interpreting Corpus). EPIC contiene le trascrizioni di discorsi pronunciati al Parlamento europeo in inglese, italiano e spagnolo e le rispettive interpretazioni nelle altre due lingue. Per quest’analisi sono stati utilizzati due sottocorpora: I discorsi originali inglesi e i rispettivi discorsi interpretati in italiano. L’obiettivo del progetto era estrarre i sintagmi nominali complessi dal sottocorpus dei discorsi inglesi e confrontarli con le rispettive traduzioni in italiano per studiare le strategie adottate dagli interpreti. L’ipotesi iniziale era che i sintagmi nominali complessi sono una sfida traduttiva. I sintagmi analizzati erano stringhe di parole formate da una testa nominale preceduta da due o più modificatori, che potevano essere aggettivi, sostantivi, avverbi, numeri cardinali e genitivi. Nel primo capitolo sono state descritte le caratteristiche dei modificatori sia in inglese che in italiano. Il secondo capitolo espone lo stato dell’arte degli studi di interpretazione basati sui corpora, con una sezione dedicata agli studi svolti su EPIC. Il terzo capitolo si concentra sulla metodologia utilizzata. I dati sono stati estratti automaticamente con tre espressioni di ricerca e poi selezionati manualmente secondo dei criteri di inclusione e di esclusione. I sintagmi nominali scelti sono stati confrontati con le corrispondenti traduzioni in italiano e classificati secondo il modello teorico delle relazioni traduttive di Schjoldager (1995). Il quarto capitolo contiene I dati raccolti, che sono stati analizzati nel quinto capitolo sia da un punto di vista quantitativo che qualitativo. I sintagmi nominali in tutto il sottocorpus sono stati confrontati con i sintagmi nominali di gruppi specifici di testi, suddivisi secondo la velocità di eloquio e la modalità di presentazione. L’ipotesi iniziale è stata in parte confermata e sono state descritte le strategie traduttive adottate dagli interpreti.