1000 resultados para teorema del viriale


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se estudia la teoría de grafos en relación con el teorema de Euler. La teoría de grafos se refiere a la teoría de conjuntos relativa a las relaciones binarias de un conjunto numerable consigo mismo. Esta teoría posee un vasto campo de aplicaciones en Física, Economía, Teoría de la Información, Programación Lineal, Transportas, Psicología, e incluso en ciertos dominios del arte. Se pretende realizar un trabajo que sirva como seminario optativo para los alumnos de COU, que presente a los alumnos un teorema clásico de geometría mediante la teoría de grafos, un aspecto bastante olvidado en los programas. Se utilizan los métodos y el lenguaje de la teoría de grafos para demostrar el teorema de Euler, que liga caras, vértices y aristas de un poliedro regular. Para todo ello en primer lugar se sistematizan una serie de conceptos previos, se analizan las propiedades de distintos tipos de grafos, y por último, se realizan demostraciones.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta innovación obtuvo Mención honorífica en los Premios Nacionales de Investigación e Innovación Educativas 1994

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si prefigge lo scopo di dimostrare il teorema di Igusa. Inizia introducendo algebricamente i numeri p-adici e ne dà una rappresentazione grafica. Sviluppa poi un integrale definito dalla misura di Haar, invariante per traslazione e computa alcuni esempi. Utilizza il blow up come strumento per la risoluzione di alcuni integrali ed enuncia un'applicazione del teorema di Hironaka sulla risolubilità delle singolarità. Infine usa questi risultati per dimostrare il teorema di Igusa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La seguente tesi affronta la dimostrazione del teorema dei quattro colori. Dopo un introduzione dei concetti cardine utili alla dimostrazione, quali i concetti ed i risultati principali della teoria dei grafi e della loro colorazione, viene affrontata a livello prima storico e poi tecnico l'evoluzione della dimostrazione del teorema, che rimase congettura per 124 anni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il teorema della mappa di Riemann è un risultato fondamentale dell'analisi complessa che afferma l'esistenza di un biolomorfismo tra un qualsiasi dominio semplicemente connesso incluso strettamente nel piano ed il disco unità. Si tratta di un teorema di grande importanza e generalità, dato che non si fa alcuna ipotesi sul bordo del dominio considerato. Inoltre ha applicazioni in diverse aree della matematica, ad esempio nella topologia: può infatti essere usato per dimostrare che due domini semplicemente connessi del piano sono tra loro omeomorfi. Presentiamo in questa tesi due diverse dimostrazioni del teorema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scopo di questo elaborato è la trattazione del momento di inerzia di un sistema meccanico rispetto ad una retta, con particolare attenzione alla struttura geometrica associata a questa nozione, ovvero all’ellissoide di inerzia. Si parte dalla definizione delle grandezze meccaniche fondamentali, passando per le equazioni cardinali della dinamica, arrivando a dimostrare il teorema di König. Viene poi studiato il momento di inerzia ed evidenziato il suo ruolo importante per la determinazione del momento angolare e dell’energia cinetica: in particolare è emersa la centralità dell’ellissoide d’inerzia. Si conclude con la dimostrazione del teorema di Huyghens e alcuni esempi espliciti di calcolo dell’ellissoide di inerzia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi si vede una dimostrazione elementare del teorema dei numeri primi. Dopo aver definito le funzioni aritmetiche di Tchebychev theta e psi, si utilizzano le loro proprietà per studiare il comportamento asintotico della funzione di Mertens e infine di pi(x). Inoltre si mostrano alcuni legami tra la zeta di Riemann e la teoria dei numeri e cenni ad altre dimostrazioni del teorema dei numeri primi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi vengono introdotte le varietà differenziabili per poter trattare un problema di immergibilità di varietà differenziabili. Viene data una dimostrazione di un teorema di Whitney nel caso di varietà differenziabili compatte. Il teorema stabilisce che per una varietà compatta di dimensione n esiste un embedding nello spazio euclideo di dimensione 2n+1. Whitney stesso ha migliorato questo risultato, dimostrando che una varietà differenziabile può essere immersa tramite un embedding nello spazio euclideo di dimensione 2n. Nella tesi vengono dati alcuni esempi di questo miglioramento del teorema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La statistica è un ramo della matematica che studia i metodi per raccogliere, organizzare e analizzare un insieme di dati numerici, la cui variazione è influenzata da cause diverse, con lo scopo sia di descrivere le caratteristiche del fenomeno a cui i dati si riferiscono, sia di dedurre, ove possibile, le leggi generali che lo regolano. La statistica si suddivide in statistica descrittiva o deduttiva e in statistica induttiva o inferenza statistica. Noi ci occuperemo di approfondire la seconda, nella quale si studiano le condizioni per cui le conclusioni dedotte dall'analisi statistica di un campione sono valide in casi più generali. In particolare l'inferenza statistica si pone l'obiettivo di indurre o inferire le proprietà di una popolazione (parametri) sulla base dei dati conosciuti relativi ad un campione. Lo scopo principale di questa tesi è analizzare il Teorema di Cochran e illustrarne le possibili applicazioni nei problemi di stima in un campione Gaussiano. In particolare il Teorema di Cochran riguarda un'importante proprietà delle distribuzioni normali multivariate, che risulta fondamentale nella determinazione di intervalli di fiducia per i parametri incogniti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo spazio duale V* di un K-spazio vettoriale V, con K = R, o C, è definito come l'insieme dei funzionali lineari e continui da V in K. Definendo su di esso le operazioni di somma tra funzionali lineari e di prodotto per scalare, V* acquisisce una struttura di K-spazio vettoriale che risulta molto utile. Infatti il suo studio permette di comprendere meglio le caratteristiche dello spazio V. A tal proposito interviene l'argomento che è oggetto dell'elaborato: il Teorema di Rappresentazione di Riesz. Diversi risultati sono raggruppati sotto questo nome, che deriva dal matematico ungherese Frigyes Riesz, e tutti permettono di caratterizzare chiaramente gli elementi del duale dello spazio a cui si riferiscono. Scopo della tesi è quello di presentare il teorema nelle sue varie forme a partire da una delle più elementari: quella relativa a spazi vettoriali finiti. Ripercorrendo via via le sue generalizzazioni si arriverà all'enunciato inerente allo spazio delle funzioni continue f da X in C che si annullano all'infinito, dove X è uno spazio di Hausdorff localmente compatto. Si vedrà inoltre un esempio di applicazione del teorema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il teorema di Borsuk-Ulam asserisce che, data una funzione continua f da S^n in R^n, esiste una coppia di punti antipodali sulla sfera che vengono mandati da f nello stesso punto. In questa tesi si vede l'equivalenza di sei diverse formulazioni del teorema e se ne dà una dimostrazione nel caso 2-dimensionale, utilizzando spazi di orbite, gruppo fondamentale e rivestimenti. Si studiano alcune sue dirette conseguenze come generalizzazioni di risultati preliminari sulla suddivisione di regioni piane, dandone anche un’interpretazione fisica e si vede come tutto questo si applica al “Ham Sandwich Theorem” in R^3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.