50 resultados para curva ellittica cubica liscia Nagell-Lutz Mordell legge di gruppo punti razionali


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Applicazione delle equazioni differenziali alla Legge di Newton e ai vari tipi di moto armonico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è studiato un corpus di importanti testi della letteratura Italiana utilizzando la teoria dei network. Le misure topologiche tipiche dei network sono state calcolate sui testi letterari, poi sono state studiate le loro distribuzioni e i loro valori medi, per capire quali di esse possono distinguere un testo reale da sue modificazioni. Inoltre si è osservato come tutti i testi presentino due importanti leggi statistiche: la legge di Zipf e quella di Heaps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Legge di conversione n. 221/2012 del Decreto Legge n.79/2012 (c.d. Decreto Crescita 2.0) introduce nel Codice dell’Amministrazione Digitale la facoltà per ogni cittadino di indicare alla pubblica amministrazione un proprio indirizzo di posta elettronica certificata quale suo domicilio digitale. La Legge di conversione n. 98/2013 del Decreto Legge n. 69/2013 (c.d. Decreto del Fare) prevede l’assegnazione di una casella di posta elettronica certificata, con funzione di domicilio digitale, contestualmente al rilascio del Documento Digitale Unificato al cittadino. La disponibilità del domicilio digitale, costituito da una casella di posta elettronica certificata, può consentire alle amministrazioni pubbliche di dematerializzare le comunicazioni verso il cittadino indirizzandole al domicilio digitale con notevoli risparmi dovuti all’eliminazione della carta e delle spese spedizione. In questo studio, attorno al domicilio digitale e alle comunicazioni via posta elettronica certificata, si cercherà di spiegare come e con quali effetti, il diritto di ogni cittadino di disporre di un domicilio digitale possa proficuamente essere esercitato nelle comunicazioni e nelle trasmissioni di documenti con la pubblica amministrazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si intende presentare le logiche proposizionali polivalenti con alcuni esempi: esse sono estensioni dalla logica classica a insiemi (in generale ancora finiti come in questa tesi) di valori di verità maggiori di due. La sintassi è la stessa ma non la semantica, rappresentata però sempre da tavole di verità o interpretazioni. Nel primo capitolo sono presentate le definizioni e gli elementi della logica classica che serviranno per studiare questo nuovo tipo di logiche. Nel secondo capitolo è esposto l'esempio di una logica a quattro valori. Si dimostra la completezza di questo calcolo, in una forma diversa rispetto alla logica classica usando tecniche simili. Non valgono infatti il principio del terzo escluso e la Legge di Lewis. Si analizza la validità delle regole del calcolo della deduzione naturale e la riscrittura delle leggi di De Morgan. Nell'ultimo capitolo si affrontano le logiche a n valori con n>2 e varianti a tre valori (vero, falso e indefinito) con i principali esempi di Lukasiewicz-Tarski, Kleene, Priest e Bochvar. Nelle conclusioni si ricordano alcune applicazioni di questo tipo di logiche facendo riferimento alla meccanica quantistica, all'informatica e all'elettronica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio e Progettazione di un sistema di sicurezza ed una legge di controllo per UAV di tipo quadcopter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il concetto di inflazione e' stato introdotto nei primi anni ’80 per risolvere alcuni problemi del modello cosmologico standard, quali quello dell’orizzonte e quello della piattezza. Le predizioni dei piu' semplici modelli inflazionari sono in buon accordo con le osservazioni cosmologiche piu'recenti, che confermano sezioni spaziali piatte e uno spettro di fluttuazioni primordiali con statistica vicina a quella gaussiana. I piu' recenti dati di Planck, pur in ottimo accordo con una semplice legge di potenza per lo spettro a scale k > 0.08 Mpc−1 , sembrano indicare possibili devi- azioni a scale maggiori, seppur non a un livello statisticamente significativo a causa della varianza cosmica. Queste deviazioni nello spettro possono essere spiegate da modelli inflazionari che includono una violazione della condizione di lento rotolamento (slow-roll ) e che hanno precise predizioni per lo spettro. Per uno dei primi modelli, caratterizzato da una discontinuita' nella derivata prima del potenziale proposto da Starobinsky, lo spettro ed il bispettro delle fluttuazioni primordiali sono noti analiticamente. In questa tesi estenderemo tale modello a termini cinetici non standard, calcolandone analiticamente il bispettro e confrontando i risultati ottenuti con quanto presente in letteratura. In particolare, l’introduzione di un termine cinetico non standard permettera' di ottenere una velocita' del suono per l’inflatone non banale, che consentira' di estendere i risultati noti, riguardanti il bispettro, per questo modello. Innanzitutto studieremo le correzioni al bispettro noto in letteratura dovute al fatto che in questo caso la velocita' del suono e' una funzione dipendente dal tempo; successivamente, cercheremo di calcolare analiticamente un ulteriore contributo al bispettro proporzionale alla derivata prima della velocita' del suono (che per il modello originale e' nullo).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato vengono descritti i principali metodi per il calcolo delle distanze in astrofisica. Viene trattato il fenomeno della parallasse, il funzionamento e alcuni tipi di stelle variabili oltre alle supernove di tipo thermonuclear. Infine sono brevemente discussi alcuni indicatori secondari: le relazioni di Faber-Jackson, Tully-Fisher e la legge di Hubble.