923 resultados para Teorema de Bayes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato tratta dell'ipotesi ergodica, problema centrale nell'ambito della giustificazione dei risultati della meccanica statistica, e dell'importanza che svolge in essa il tempo di osservazione. Dopo aver presentato varie formulazioni del problema ergodico, si esamina la questione dei tempi di ritorno e si mostra come il teorema di ricorrenza di Poincaré non sia in contraddizione con la possibilità del raggiungimento dell'equilibrio. Infine, l'analisi dell'apparente paradosso di Fermi-Pasta-Ulam e la discussione di alcune proposte di soluzione mostrano un'applicazione della trattazione astratta condotta precedentemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’odierno mercato concorrenziale ha portato le aziende a rinnovare il sistema produttivo, spostandosi da un approccio innovativo convergente, in cui le imprese erano le uniche detentrici del controllo dell’intero processo, fin dalla generazione di nuove idee e proposte di innovazione, ad un approccio aperto, denominato Open Innovation, che fa leva sul concetto di flusso libero e bidirezionale di idee e tecnologie tra l’azienda e l’ambiente esterno. È in questo contesto che è stata progettata in Carpigiani una piattaforma e-maintenance chiamata Teorema che, sfruttando un sistema di telemetria, consente di monitorare in tempo reale le macchine installate presso l’utente finale, acquisendo importanti informazioni sul reale utilizzo e sulle effettive funzionalità impiegate dal cliente. Grazie a tale gestione remota, allo stesso tempo è possibile garantire un’efficace operazione di diagnostica e prognostica atte a prevenire eventuali malfunzionamenti. Il presente elaborato fornisce un concreto metodo di utilizzo di tale piattaforma per il monitoraggio real time di macchine per gelato espresso, al fine di verificarne l’effettivo utilizzo da parte del cliente ed il corretto dimensionamento dell’impianto. Per mezzo della piattaforma Teorema è stato inoltre possibile eseguire un’indagine comparativa sui consumi energetici misurati in macchina, testando l’efficienza di funzionamento. Infine è stata eseguita un’analisi FMEA degli allarmi rilevati sul parco di macchine analizzate, per valutare l’affidabilità della macchina e dei suoi componenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si consideri un insieme X non vuoto su cui si costruisce una sigma-algebra F, una trasformazione T dall'insieme X in se stesso F-misurabile si dice che conserva la misura se, preso un elemento della sigma-algebra, la misura della controimmagine di tale elemento è uguale a quella dell'elemento stesso. Con questa nozione si possono costruire vari esempi di applicazioni che conservano la misura, nell'elaborato si presenta la trasformazione di Gauss. Questo tipo di trasformazioni vengono utilizzate nella teoria ergodica dove ha senso considerare il sistema dinamico a tempi discreti T^j x; dove x = T^0 x è un dato iniziale, e studiare come la dinamica dipende dalla condizione iniziale x. Il Teorema Ergodico di Von Neumann afferma che dato uno spazio di Hilbert H su cui si definisce un'isometria U è possibile considerare, per ogni elemento f dello spazio di Hilbert, la media temporale di f che converge ad un elemento dell'autospazio relativo all'autovalore 1 dell'isometria. Il Teorema di Birkhoff invece asserisce che preso uno spazio X sigma-finito ed una trasformazione T non necessariamente invertibile è possibile considerare la media temporale di una funzione f sommabile, questa converge sempre ad una funzione f* misurabile e se la misura di X è finita f* è distribuita come f. In particolare, se la trasformazione T è ergodica si avrà che la media temporale e spaziale coincideranno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della tesi è dimostrare un teorema che offre una condizione necessaria e sufficiente affinché un poliedro con facce identificate risulti una varietà tridimensionale. Nel primo capitolo si descrive una possibile metodologia di studio e presentazione delle superfici al fine di fare un confronto con le 3-varietà. Nel secondo capitolo, prima di studiare il teorema principale, si descrivono nozioni di topologia algebrica utili nella sua dimostrazione: la coomologia e la dualità di Poincaré. Infine il terzo capitolo è dedicato alla descrizione di due esempi di 3-varietà e ad un controesempio al teorema in dimensione 5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Definizioni e enunciati riguardo al gruppo fondamentale, alle azioni di gruppo, ai rivestimenti, alle varietà topologiche, differenziabili e riemanniane, alle isometrie e ai gruppi discreti di isometrie. Approfondimento riguardo alle superfici connesse, compatte e orientabili con classificazione topologica, definizione di curvatura gaussiana con classificazione delle superfici in base al valore della curvatura, teorema di Killing-Hopf, teorema di uniformizzazione, enunciato del teorema che verrà dimostrato: la sfera è l'unica superficie connessa, compatta e orientabile ellittica, il toro è l'unica piatta, le somme connesse di g tori (g>1) sono iperboliche. Descrizione del piano euclideo con relativa metrica, descrizione delle sue isometrie, teorema di Chasles con dimostrazione, dimostrazione del toro come unica superficie connessa, compatta e orientabile piatta. Descrizione della sfera con relativa metrica, descrizione delle sue isometrie, dimostrazione della semplicità di SO(3), dimostrazione della sfera come unica superficie connessa, compatta e orientabile ellittica. Descrizione di due modelli del piano iperbolico, descrizione delle sue isometrie, dimostrazione del fatto che le somme connesse di g tori (g>1) sono iperboliche. Definizione di gruppo Fuchsiano e di spazio di Teichmuller.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si basa sulla descrizione dei p-gruppi di ordine finito, definiti p-gruppi, cioè quei gruppi che hanno come cardinalità una potenza di un numero primo. Vengono enunciati i teoremi di Sylow e le sue conseguenze. Infine si discute il teorema fondamentale sui gruppi abeliani finiti e la funzione di Eulero.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi illustra il teorema di decomposizione delle misure e come questo viene applicato alle trasformazioni che conservano la misura. Dopo aver dato le definizioni di σ-algebra e di misura ed aver enunciato alcuni teoremi di teoria della misura, si introducono due differenti concetti di separabilità: quello di separabilità stretta e quello di separabilità, collegati mediante un lemma. Si descrivono poi la funzione di densità relativa e le relative proprietà e, dopo aver definito il concetto di somma diretta di spazi di misura, si dimostra il teorema di decomposizione delle misure, che permette sotto certe ipotesi di esprimere uno spazio di misura come somma diretta di spazi di misura. Infine, dopo aver spiegato cosa significa che una trasformazione conserva la misura e che è ergodica, si dimostra il teorema di Von Neumann, per il quale le trasformazioni che conservano la misura risultano decomponibili in parti ergodiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’aumento della frequenza di accadimento e dell’intensità di eventi di tempesta rappresenta una seria minaccia per gli ambienti costieri, in particolare per quelli dominati da spiagge sabbiose. Nel seguente lavoro di tesi si è voluto approfittare di un evento di flooding che ha interessato la spiaggia di Cesenatico (Febbraio 2015), provocando un lieve arretramento della linea di riva, per valutare la risposta del comparto macrobentonico a uno shift da zona intertidale a quella di primo subtidale. I dati relativi al periodo post-disturbo (after), mostrano variazioni sia dal punto di vista dell’ambiente fisico che delle comunità bentoniche ad esso associate; per quanto riguarda i campioni del 2015, si è osservata una diminuzione della media granulometrica e un aumento della materia organica rispetto al 2011 (before). Si evidenziano differenze anche tra le comunità bentoniche before e after l’evento, con valori di abbondanza, numero di taxa e diversità maggiori in after, nonché dell’intera struttura di comunità in cui si osservano variazioni di dominanza di particolari specie e l’insediamento di specie non presenti prima dell’evento. In before c’è una dominanza di S. squamata, un polichete fossatorio tipico dell’intertidale. In after è risultato che molte più specie concorrono nel determinare i pattern osservati, ed emerge una netta dominanza di L. mediterraneum e dei tanaidacei del genere Apseudes. I valori delle variabili ambientali e biotiche sono stati utilizzati per costruire un modello previsionale FNB (fuzzy naive Bayes) che è stato utilizzato con i dati abiotici relativi all’after per prevedere i pattern di comunità. Dalle simulazioni si osserva che i pattern spaziali del macrobenthos seguono l’evoluzione dell’intero sistema, confermando uno shift da intertidale a primo subtidale e può essere usato come base per comprendere gli effetti di un flooding costiero su sistemi vulnerabili qual è la spiaggia di Cesenatico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio dei punti di singolarità di una curva nel piano proiettivo complesso. Nel caso in cui il punto sia regolare possiamo sfruttare il teorema delle funzioni implicite che ci permette di esplicitare il luogo di zeri di un'equazione implicita rispetto a una variabile. Quando questa ipotesi di regolarità viene meno per avere un risultato analogo diventa necessario utilizzare le serie di Puiseux. L'interpretazione algebrica del teorema di Puiseux risponde alla domanda di trovare un'estensione del campo delle serie di Laurent che sia algebricamente chiuso; prendendo un polinomio di grado positivo in K(x)*[y], mostreremo che esiste sempre una radice del polinomio appartenente a K(x)*. Il legame con l’interpretazione analitica risulta ora evidente: data infatti una curva nel piano complesso la sua equazione può essere vista come un particolare polinomio in K(x)*[y], esplicitare la y in funzione della x equivale appunto a trovare una radice in K(x)*. Nel primo capitolo abbiamo in primo luogo richiamato il risultato di Dini e parlato del luogo singolare di una curva, mostrando che quest'ultimo è un numero finito di punti. In seguito abbiamo introdotto il poligono di Newton, il quale è un insieme convesso del piano associato ad un polinomio in due variabili. Nel secondo capitolo abbiamo visto due formulazioni del teorema di Puiseux, entrambe le dimostrazioni di questo risultato sono costruttive; per renderle più scorrevoli abbiamo ritenuto opportuno costruire degli esempi che evidenziassero i vari passi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si propone di verificare l'esistenza di coordinate isoterme su una superficie. Le coordinate isoterme danno localmente una mappa conforme da una varietà riemanniana bidimensionale al piano Euclideo. Se la superficie è orientabile, allora si può dare un atlante di carte isoterme, cioè le cui coordinate associate siano isoterme. Queste coordinate esistono a patto che vengano soddisfatte certe condizioni. Il risultato nelle classi di Holder è dovuto a Korn e Lichtensten. Chern ha notevolmente semplificato la loro dimostrazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si mostrano alcune applicazioni degli integrali ellittici nella meccanica Hamiltoniana, allo scopo di risolvere i sistemi integrabili. Vengono descritte le funzioni ellittiche, in particolare la funzione ellittica di Weierstrass, ed elenchiamo i tipi di integrali ellittici costruendoli dalle funzioni di Weierstrass. Dopo aver considerato le basi della meccanica Hamiltoniana ed il teorema di Arnold Liouville, studiamo un esempio preso dal libro di Moser-Integrable Hamiltonian Systems and Spectral Theory, dove si prendono in considerazione i sistemi integrabili lungo la geodetica di un'ellissoide, e il sistema di Von Neumann. In particolare vediamo che nel caso n=2 abbiamo un integrale ellittico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of many genetic studies is to locate the genomic regions (called quantitative trait loci, QTLs) that contribute to variation in a quantitative trait (such as body weight). Confidence intervals for the locations of QTLs are particularly important for the design of further experiments to identify the gene or genes responsible for the effect. Likelihood support intervals are the most widely used method to obtain confidence intervals for QTL location, but the non-parametric bootstrap has also been recommended. Through extensive computer simulation, we show that bootstrap confidence intervals are poorly behaved and so should not be used in this context. The profile likelihood (or LOD curve) for QTL location has a tendency to peak at genetic markers, and so the distribution of the maximum likelihood estimate (MLE) of QTL location has the unusual feature of point masses at genetic markers; this contributes to the poor behavior of the bootstrap. Likelihood support intervals and approximate Bayes credible intervals, on the other hand, are shown to behave appropriately.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An optimal multiple testing procedure is identified for linear hypotheses under the general linear model, maximizing the expected number of false null hypotheses rejected at any significance level. The optimal procedure depends on the unknown data-generating distribution, but can be consistently estimated. Drawing information together across many hypotheses, the estimated optimal procedure provides an empirical alternative hypothesis by adapting to underlying patterns of departure from the null. Proposed multiple testing procedures based on the empirical alternative are evaluated through simulations and an application to gene expression microarray data. Compared to a standard multiple testing procedure, it is not unusual for use of an empirical alternative hypothesis to increase by 50% or more the number of true positives identified at a given significance level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Under a two-level hierarchical model, suppose that the distribution of the random parameter is known or can be estimated well. Data are generated via a fixed, but unobservable realization of this parameter. In this paper, we derive the smallest confidence region of the random parameter under a joint Bayesian/frequentist paradigm. On average this optimal region can be much smaller than the corresponding Bayesian highest posterior density region. The new estimation procedure is appealing when one deals with data generated under a highly parallel structure, for example, data from a trial with a large number of clinical centers involved or genome-wide gene-expession data for estimating individual gene- or center-specific parameters simultaneously. The new proposal is illustrated with a typical microarray data set and its performance is examined via a small simulation study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A recent article in this journal (Ioannidis JP (2005) Why most published research findings are false. PLoS Med 2: e124) argued that more than half of published research findings in the medical literature are false. In this commentary, we examine the structure of that argument, and show that it has three basic components: 1)An assumption that the prior probability of most hypotheses explored in medical research is below 50%. 2)Dichotomization of P-values at the 0.05 level and introduction of a “bias” factor (produced by significance-seeking), the combination of which severely weakens the evidence provided by every design. 3)Use of Bayes theorem to show that, in the face of weak evidence, hypotheses with low prior probabilities cannot have posterior probabilities over 50%. Thus, the claim is based on a priori assumptions that most tested hypotheses are likely to be false, and then the inferential model used makes it impossible for evidence from any study to overcome this handicap. We focus largely on step (2), explaining how the combination of dichotomization and “bias” dilutes experimental evidence, and showing how this dilution leads inevitably to the stated conclusion. We also demonstrate a fallacy in another important component of the argument –that papers in “hot” fields are more likely to produce false findings. We agree with the paper’s conclusions and recommendations that many medical research findings are less definitive than readers suspect, that P-values are widely misinterpreted, that bias of various forms is widespread, that multiple approaches are needed to prevent the literature from being systematically biased and the need for more data on the prevalence of false claims. But calculating the unreliability of the medical research literature, in whole or in part, requires more empirical evidence and different inferential models than were used. The claim that “most research findings are false for most research designs and for most fields” must be considered as yet unproven.