923 resultados para Teorema de Bayes
Resumo:
[eus] Lan honen helburua analisi dimentsionala nola erabiltzen den modu sinplean azaltzea da. Lana hiru zatitan banatuta dago. Lehenengo atalean analisi dimentsionalaren oinarriak aurkezten dira,teorema garrantzitsuenak nola erabili eta problemak nola ebatzi deskribatuz. Bigarren zatian, jariakinen mekanika eta dinamikako problemetan askotan agertzen diren zenbaki adimentsional ezagunenak zerrendatzen dira, eta bakoitza zein kasutan den garrantzitsua azaltzen da. Bukatzeko, analisi dimentsionalaren aplikazio nagusia aztertzen da azken atalean: modelaketa.
Resumo:
El estudio de la teoría sobre de las cuádricas con Geometría Proyectiva, aplicando conceptos, definiciones, y teoremas fundamentales, los cuales nos llevan a comprender la importancia de su aplicación en las diferentes ramas de la matemática y sus representaciones gráficas. Es por ello que en este trabajo se trata de desarrollar temas que están enfocados a comprender las cuádricas con geometría proyectiva y su importancia. Se desarrollará la noción de proyección, donde se dan definiciones importantes sobre la proyección, así como una descripción de que sucede si se agregan los puntos ideales o puntos al infinito, y que estos sean los centros de proyección, además el enriquecimiento que aportan estos nuevos conceptos. Se desarrollarán los conceptos de coordenadas homogéneas, que es fundamental para la comprensión de los puntos ideales o puntos al infinito, que facilitarán el manejo algebraico en el estudio del espacio proyectivo, el cual también incluye puntos complejos, así como la representación del espacio en diferentes dimensiones, y cambio de estructura de coordenadas, subespacios, hiperplanos y dualidad. Los más importantes teoremas de la Geometría Euclidiana, desarrollado con la Geometría Proyectiva, que es el Teorema de Desargues, y algunos resultados importantes adicionales. También se hará una introducción a proyectividades, razón cruzada, y transformaciones lineales. Se refleja la riqueza que tienen las cuádricas aplicando los conceptos de la geometría proyectiva, así como sus diferentes representaciones. Es importante mencionar que en el pasado el ser humano se ha visto favorecido por tales representaciones, facilitando la comprensión de su entorno, aunque muchas veces no esté consciente de los aspectos matemáticos que están involucrados.
Resumo:
Neste artigo faz-se uma análise das características distributivas do processo Kaldor-Pasinetti, assumindo-se que o setor governamental incorre em persistentes déficits que podem ser financiados através de diferentes instrumentos, como a emissão de títulos e de moeda. Através dessa abordagem é possível estudar como a atividade governamental afeta a distribuição de renda entre capitalistas e trabalhadores e assim obter generalizações do Teorema de Cambridge em que versões anteriores como as de Steedman (1972), Pasinetti (1989), Dalziel (1991) e Faria (2000) surgem como casos particulares. _________________________________________________________________________________ ABSTRACT
Resumo:
lido nada de Milton Hatoum. Mas, emprestado por uma amiga, li Dois Irmãos e perguntei- me por que razão não tinha ouvido falar dele antes. Às vezes ando distraída e deixo passar várias informações literárias em revistas, jornais e rádio (televisão não tenho). Deve ter sido numa dessas alturas que o seu nome foi falado, até porque as notícias das suas vitórias de prémios literários foram difundidas no nosso país. Tendo passado por diversas profissões (arquiteto, professor de literatura, cronista), Milton Hatoum não é um desconhecido em Portugal e muito menos no Brasil. Por cá, a sua obra (quatro romances e um livro de contos) está publicada na Cotovia (Relato de um certo Oriente – 1999; Dois irmãos – 2000; Cinzas do norte – 2005 e os contos A cidade ilhada – 2009) e na Teorema (Órfãos do El Dourado – 2009). No Brasil, todos os romances foram premiados: três deles com o prestigiado prémio Jabuti de Literatura e um, Cinzas do norte, com o importante Prémio Portugal Telecom de Literatura. Dois irmãos é um livro pequeno, mas muito intenso. Depois de terminarmos a leitura ainda ficamos com as personagens e os seus dramas de vida na nossa memória. Passado em Manaus, acompanha a história da família de Zana e Halim, um casal de libaneses emigrados no Brasil. A ação acompanha décadas da família (os gémeos teriam nascido em 1925), principalmente do período que medeia a Segunda Guerra até à ditadura militar, pelo olhar de uma personagem secundária, que sabe de muitas destas histórias em segunda mão, através das conversas com diversas personagens, principalmente Halim e a índia Domingas que, vimos a saber, é sua mãe. Tudo nos é revelado aos poucos, como se o narrador (cujo nome, Nael, só sabemos quase no fim) nos fosse contando à medida que se vai lembrando, recuando e avançando no relato.
Resumo:
Este trabajo se enfoca en el estudio del control de sistemas Multi-Entrada Multi-Salida (MIMO) Lineales con Parámetros Variantes en el Tiempo (LPV). Los parámetros son medibles y permanecen dentro de cotas conocidas. El control por retroalimentación de salida garantiza estabilidad cuadrática (QS) y desempeño, mediante el Teorema de los vértices y el Lema de Cota Real (BRL). Se proponen condiciones para que el sistema retroalimentado sea convexo cuando se utilizan controladores estabilizantes en cada vértice. El controlador LPV resulta de la interpolación de estos controladores, y se estudia la relación entre la estabilidad y el desempeño del control de los vértices, y la estabilidad y desempeño del sistema LPV. Además, se da una forma explícita del parámetro libre de la Parametrización de Todos los Controladores Estabilizantes (PTCE) que resuelve un criterio de sensibilidad mezclada cuando se tiene un modelo de incertidumbre aditivo a la salida. Los resultados se aplican a un robot planar rotacional de dos grados de libertad, a un motor de CD y a un sistema de dos masas.
Resumo:
Este trabajo busca mostrar una forma general de encontrar arreglos de tres números naturales (tercias) que cumplen la relación de Pitágoras, es decir que la suma del cuadrado de los dos menores de como resultado el cuadrado del mayor, a través de un proceso mucho más general que los conocidos hasta ahora, llegando incluso a proponer unas fórmulas que, en función de dos parámetros permite encontrar dichos conjuntos de tres elementos, cuyos resultados se los presenta en unas tablas. Los resultados afirman la idea de que existe un infinito número de tercias que cumplen la relación de Pitágoras. Luego veremos cómo se puede usar estas tablas para construir relaciones donde la suma de los cuadrados de más de dos números es igual al cuadrado de otro.
Resumo:
The aim of the present study was to propose and evaluate the use of factor analysis (FA) in obtaining latent variables (factors) that represent a set of pig traits simultaneously, for use in genome-wide selection (GWS) studies. We used crosses between outbred F2 populations of Brazilian Piau X commercial pigs. Data were obtained on 345 F2 pigs, genotyped for 237 SNPs, with 41 traits. FA allowed us to obtain four biologically interpretable factors: ?weight?, ?fat?, ?loin?, and ?performance?. These factors were used as dependent variables in multiple regression models of genomic selection (Bayes A, Bayes B, RR-BLUP, and Bayesian LASSO). The use of FA is presented as an interesting alternative to select individuals for multiple variables simultaneously in GWS studies; accuracy measurements of the factors were similar to those obtained when the original traits were considered individually. The similarities between the top 10% of individuals selected by the factor, and those selected by the individual traits, were also satisfactory. Moreover, the estimated markers effects for the traits were similar to those found for the relevant factor.
Resumo:
Genomic selection (GS) has been used to compute genomic estimated breeding values (GEBV) of individuals; however, it has only been applied to animal and major plant crops due to high costs. Besides, breeding and selection is performed at the family level in some crops. We aimed to study the implementation of genome-wide family selection (GWFS) in two loblolly pine (Pinus taeda L.) populations: i) the breeding population CCLONES composed of 63 families (5-20 individuals per family), phenotyped for four traits (stem diameter, stem rust susceptibility, tree stiffness and lignin content) and genotyped using an Illumina Infinium assay with 4740 polymorphic SNPs, and ii) a simulated population that reproduced the same pedigree as CCLONES, 5000 polymorphic loci and two traits (oligogenic and polygenic). In both populations, phenotypic and genotypic data was pooled at the family level in silico. Phenotypes were averaged across replicates for all the individuals and allele frequency was computed for each SNP. Marker effects were estimated at the individual (GEBV) and family (GEFV) levels with Bayes-B using the package BGLR in R and models were validated using 10-fold cross validations. Predicted ability, computed by correlating phenotypes with GEBV and GEFV, was always higher for GEFV in both populations, even after standardizing GEFV predictions to be comparable to GEBV. Results revealed great potential for using GWFS in breeding programs that select families, such as most outbreeding forage species. A significant drop in genotyping costs as one sample per family is needed would allow the application of GWFS in minor crops.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, Programa de Mestrado Profissional em Matemática em Rede Nacional, 2016.
Resumo:
En el ámbito de las estructuras ordenadas, Ø. Ore introdujo en 1944 el concepto de conexión de Galois como un par de funciones antítonas entre dos conjuntos parcialmente ordenados, generalizando así la teoría de polaridades entre retículos completos. Este concepto supone una generalización de la correspondencia subgrupo-subcuerpo que se describe en el clásico Teorema Fundamental de la Teoría de Galois, de ahí el origen del término. Años más tarde, J. Schmidt mantuvo la terminología de conexión de Galois, pero cambió las funciones antítonas por funciones isótonas, lo cual favoreció la aplicabilidad de este concepto a Computación. El término adjunción fue introducido en 1958 por D. M. Kan. Originalmente fueron definidas en un contexto categórico y tal vez debido a esto, pueden encontrarse gran cantidad de ejemplos de adjunciones en varias áreas de investigación, que van desde las más teóricas a las más aplicadas. En 1965, Lotfi Zadeh introduce la Teoría de Conjuntos Difusos. En su trabajo se aborda definitivamente el problema del modelado matemático de la ambigüedad, con la definición de conjunto difuso X en un universo U como una aplicación X: U→ [0,1] que asocia a cada elemento u del conjunto U un valor del intervalo real [0,1] y donde X(u) representa el grado de pertenencia de u al conjunto difuso X. El término conexión de Galois difusa fue introducido por R. Belohlávek como un par de aplicaciones definidas entre los conjuntos de conjuntos difusos definidos sobre dos universos. Desde entonces, en el ámbito de la lógica difusa, se pueden encontrar numerosos artículos en los cuales se estudian las conexiones de Galois difusas desde un punto de vista algebraico y abstracto. El objetivo principal de este trabajo es estudiar y caracterizar, a partir de una aplicación f: A→ B desde un conjunto A dotado con una determinada estructura hasta un conjunto B no necesariamente dotado de estructura, las situaciones en las cuales se pueda definir una estructura en B similar a la de A, de forma que además se pueda construir una aplicación g: B→ A tal que el par (f,g) sea una adjunción (conexión de Galois isótona). Se considera el conjunto A dotado con un orden parcial y se realiza la descomposición canónica de la función f a través del conjunto cociente de A con respecto a la relación núcleo. Partiendo del problema inicial de deducir las condiciones necesarias y suficientes para la existencia de un orden parcial en B y para la definición de un adjunto por la derecha de f, con esta descomposición canónica se pretende dividir la cuestión en tres problemas más simples, a saber, la construcción de un orden en el codominio y un adjunto por la derecha para cada una de las aplicaciones que forman parte de la citada descomposición. Esto resuelve la cuestión planteada para el caso de funciones que son sobreyectivas. Para el caso general, es necesario analizar previamente cómo extender una relación de preorden definida sobre un subconjunto de un conjunto dado a dicho conjunto, así como la definición de un adjunto por la derecha para la inclusión natural del subconjunto dentro del conjunto. Se continua la investigación considerando el conjunto A dotado con un preorden, en este caso la ausencia de la propiedad antisimétrica hace necesario utilizar la denominada relación p-núcleo, que es el cierre transitivo de la unión de la relación núcleo y la relación de equivalencia núcleo simétrico. Asimismo, el hecho de que no se tenga unicidad para el máximo o el mínimo de un subconjunto, conduce a trabajar con relaciones definidas en el conjunto de partes de un conjunto (concretamente, con el preorden de Hoare). Todo ello hace aumentar la dificultad en la búsqueda de las condiciones necesarias y suficientes para la existencia de una relación de preorden en el codominio y la existencia de un adjunto por la derecha. Se finaliza esta sección con el análisis de la unicidad del adjunto por la derecha y del orden parcial (preorden) definido sobre el codominio. Después del estudio anterior, se introducen los denominados operadores y sistemas de ≈-cierre en conjuntos preordenados y se analiza la relación existente entre ambos (que deja de ser biunívoca, como sucede en el caso de órdenes parciales). Se trabaja con la noción de compatibilidad respecto a una relación de equivalencia y se caracteriza la construcción de adjunciones entre conjuntos preordenados en términos de la existencia de un sistema de ≈-cierre compatible con la relación núcleo. En una segunda parte de la tesis, se aportan las definiciones de las nociones de adjunción difusa, co-adjunción difusa y conexiones de Galois difusas por la derecha y por la izquierda entre conjuntos con preórdenes difusos. Además se presentan las distintas caracterizaciones de los conceptos anteriormente señalados, así como las relaciones entre ellos. Se aborda la construcción de adjunciones entre conjuntos con órdenes difusos, utilizando de nuevo la relación núcleo, en su versión difusa, y la descomposición canónica de la función de partida respecto a ella. El teorema principal de esta sección recoge una caracterización para la definición de una relación difusa de orden sobre el codominio B y un adjunto por la derecha para f:(A, ρA) → B donde (A, ρA) es un conjunto con un orden difuso. El estudio del problema anterior entre conjuntos con preórdenes difusos, hace necesario trabajar con la relación difusa denominada p-núcleo. También es preciso definir un preorden difuso en el conjunto de partes de un conjunto para describir las condiciones bajo las que es posible la construcción de una adjunción. Se finaliza proponiendo la definición de sistema de cierre en un conjunto con un preorden difuso y algunas caracterizaciones más manejables. También se trabaja con los operadores de cierre definidos en un conjunto con un preorden difuso y se analiza la relación con los sistemas de cierre. Todo ello encaminado a caracterizar la construcción de un adjunto por la derecha y un preorden difuso sobre el codominio B de una de una aplicación f:(A, ρA) → B, donde ρA es un preorden difuso sobre A.
Resumo:
Questa tesi ha lo scopo di descrivere le proprietà matematiche degli insiemi frattali. Nell'introduzione è spiegato brevemente cosa sono i frattali e vengono fatti alcuni esempi di frattali in natura, per poi passare agli aspetti più matematici nei capitoli. Nel capitolo uno si parla della misura e della dimensione di Hausdorff e viene calcolata, seguendo la definizione, per l'insieme di Cantor. Poi nel secondo capitolo viene descrittà l'autosimilarità e viene enunciato un importante teorema che lega l'autosimilarità e la dimensione di Hausdorff. Nel terzo capitolo vengono descritti degli insiemi frattali molto importanti: quelli di Mandelbrot e di Julia.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
In questa tesi si è eseguito uno studio preliminare (con risultati positivi) volto a verificare la possibilità di estendere al caso di forze r^(-α) il Teorema di stabilità di Antonov per sistemi autogravitanti newtoniani. Tale studio è volto a capire se i risultati di stabilità attualmente noti dipendano dalla speciale natura del campo r^(-2) o se valgono più genericamente per sistemi con forze a lungo range.
Resumo:
Group testing has long been considered as a safe and sensible relative to one-at-a-time testing in applications where the prevalence rate p is small. In this thesis, we applied Bayes approach to estimate p using Beta-type prior distribution. First, we showed two Bayes estimators of p from prior on p derived from two different loss functions. Second, we presented two more Bayes estimators of p from prior on π according to two loss functions. We also displayed credible and HPD interval for p. In addition, we did intensive numerical studies. All results showed that the Bayes estimator was preferred over the usual maximum likelihood estimator (MLE) for small p. We also presented the optimal β for different p, m, and k.
Resumo:
In 2010, the American Association of State Highway and Transportation Officials (AASHTO) released a safety analysis software system known as SafetyAnalyst. SafetyAnalyst implements the empirical Bayes (EB) method, which requires the use of Safety Performance Functions (SPFs). The system is equipped with a set of national default SPFs, and the software calibrates the default SPFs to represent the agency’s safety performance. However, it is recommended that agencies generate agency-specific SPFs whenever possible. Many investigators support the view that the agency-specific SPFs represent the agency data better than the national default SPFs calibrated to agency data. Furthermore, it is believed that the crash trends in Florida are different from the states whose data were used to develop the national default SPFs. In this dissertation, Florida-specific SPFs were developed using the 2008 Roadway Characteristics Inventory (RCI) data and crash and traffic data from 2007-2010 for both total and fatal and injury (FI) crashes. The data were randomly divided into two sets, one for calibration (70% of the data) and another for validation (30% of the data). The negative binomial (NB) model was used to develop the Florida-specific SPFs for each of the subtypes of roadway segments, intersections and ramps, using the calibration data. Statistical goodness-of-fit tests were performed on the calibrated models, which were then validated using the validation data set. The results were compared in order to assess the transferability of the Florida-specific SPF models. The default SafetyAnalyst SPFs were calibrated to Florida data by adjusting the national default SPFs with local calibration factors. The performance of the Florida-specific SPFs and SafetyAnalyst default SPFs calibrated to Florida data were then compared using a number of methods, including visual plots and statistical goodness-of-fit tests. The plots of SPFs against the observed crash data were used to compare the prediction performance of the two models. Three goodness-of-fit tests, represented by the mean absolute deviance (MAD), the mean square prediction error (MSPE), and Freeman-Tukey R2 (R2FT), were also used for comparison in order to identify the better-fitting model. The results showed that Florida-specific SPFs yielded better prediction performance than the national default SPFs calibrated to Florida data. The performance of Florida-specific SPFs was further compared with that of the full SPFs, which include both traffic and geometric variables, in two major applications of SPFs, i.e., crash prediction and identification of high crash locations. The results showed that both SPF models yielded very similar performance in both applications. These empirical results support the use of the flow-only SPF models adopted in SafetyAnalyst, which require much less effort to develop compared to full SPFs.