862 resultados para Non-negative sources


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This cross-sectional study investigates whether calcium intakes from dairy and non-dairy sources, and absolute intakes of various dairy products, are associated with periodontitis. The calcium intake (mg/day) of 135 older Danish adults was estimated by a diet history interview and divided into dairy and non-dairy calcium. Dairy food intake (g/day) was classified into four groups: milk, cheese, fermented foods and other foods. Periodontitis was defined as the number of teeth with attachment loss ≥3 mm. Intakes of total dairy calcium (Incidence-rate ratio (IRR) = 0.97; p = 0.021), calcium from milk (IRR = 0.97; p = 0.025) and fermented foods (IRR = 0.96; p = 0.03) were inversely and significantly associated with periodontitis after adjustment for age, gender, education, sucrose intake, alcohol consumption, smoking, physical activity, vitamin D intake, heart disease, visits to the dentist, use of dental floss and bleeding on probing, but non-dairy calcium, calcium from cheese and other types of dairy food intakes were not. Total dairy foods (IRR = 0.96; p = 0.003), milk (IRR = 0.96; p = 0.028) and fermented foods intakes (IRR = 0.97; p = 0.029) were associated with reduced risk of periodontitis, but cheese and other dairy foods intakes were not. These results suggest that dairy calcium, particularly from milk and fermented products, may protect against periodontitis. Prospective studies are required to confirm these findings.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia mecânica

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo Energia

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Relatório Final apresentado à Escola Superior de Educação de Lisboa para a obtenção de grau de mestre em Ensino do 1.º e 2.º Ciclo do Ensino Básico

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We associate some graphs to a ring R and we investigate the interplay between the ring-theoretic properties of R and the graph-theoretic properties of the graphs associated to R. Let Z(R) be the set of zero-divisors of R. We define an undirected graph ᴦ(R) with nonzero zero-divisors as vertices and distinct vertices x and y are adjacent if xy=0 or yx=0. We investigate the Isomorphism Problem for zero-divisor graphs of group rings RG. Let Sk denote the sphere with k handles, where k is a non-negative integer, that is, Sk is an oriented surface of genus k. The genus of a graph is the minimal integer n such that the graph can be embedded in Sn. The annihilating-ideal graph of R is defined as the graph AG(R) with the set of ideals with nonzero annihilators as vertex such that two distinct vertices I and J are adjacent if IJ=(0). We characterize Artinian rings whose annihilating-ideal graphs have finite genus. Finally, we extend the definition of the annihilating-ideal graph to non-commutative rings.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les anthropologues ont examiné le syncrétisme religieux, soit l’incorporation d’éléments de sources diverses, au sein des religions du monde depuis plusieurs décennies. Cependant, très peu d’intérêt a été accordé au paganisme contemporain, un Nouveau Mouvement Religieux hautement syncrétique. À travers les récits de plusieurs païens/nes contemporain/es à Montréal, j’examine comment et pourquoi les pratiquants sont inspiré/es à faire le choix d’incorporer divers éléments provenant de sources religieuses et non religieuses. Le recours à des sources différentes reflète l’effort de créer une expérience religieuse plus profonde et personnelle. La créativité impliquée dans la construction d’une pratique spirituelle et d’un système de croyance personnels est souvent conduite par un désir de (re)connexion, que ce soit à la terre, aux ancêtres, ou bien à une communauté. Les acteurs acquièrent un sentiment accru d’agentivité dans ce processus. Ma participation dans cette communauté a influencé mes expériences de recherche; j’examine également ma position en tant qu’anthropologue chez soi.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire aborde la question de la folie dans l’œuvre d’Hubert Aquin, en particulier dans deux romans : Trou de mémoire et L’Antiphonaire. Deux types de désordre de la personnalité font l’objet de l’étude : le délire psychotique dans le cas de Trou de mémoire, et l’épilepsie pour ce qui est de L’Antiphonaire. La question de la maladie mentale ou neurologique est envisagée tant du point de vue thématique que du point de vue structurel. Bien que l’aspect thématique occupe la majeure partie du mémoire, l’analyse de la structure du récit y tient une place importante, l’une des hypothèses de départ étant que le désordre mental affecte la composition narrative des deux romans d’Aquin. Plusieurs sources non littéraires sont utilisées pour apporter des éléments d’analyse susceptibles de confirmer les hypothèses proposées. En plus de faire appel à des sources médicales et à des textes relevant de la psychologie, cette recherche trace un historique de l’épilepsie, en faisant ressortir les différences entre la conception qu’on en avait à l’époque de la Renaissance et celle qui prévaut aujourd’hui. Tout en empruntant à des domaines divers du savoir, cette étude s’intéresse à une question peu traitée par la critique ayant abordé le thème de la folie chez Aquin : celle de ses répercussions sur la structure du récit.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We consider the problem of regulating an economy with environmental pollution. We examine the distributional impact of the polluter-pays principle which requires that any agent compensates all other agents for the damages caused by his or her (pollution) emissions. With constant marginal damages we show that regulation via the polluter-pays principle leads to the unique welfare distribution that assigns non-negative individual welfare and renders each agent responsible for his or her pollution impact. We extend both the polluter-pays principle and this result to increasing marginal damages due to pollution. We also discuss the acceptability of the polluter-pays principle and compare it with the Vickrey-Clark-Groves mechanism.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction : La présente étude explore pour la première fois en Afrique, l'association entre l'exposition aux pesticides organochlorés (POC) et le risque de diabète de type 2. L’étude se déroule dans la région du Borgou, au nord du Bénin, où l’utilisation intense de pesticides pour la culture du coton coïncide avec une prévalence élevée du diabète par rapport aux autres régions du pays. Objectifs: 1) Décrire le niveau d’exposition de la population des diabétiques et non diabétiques du Borgou par le taux sérique de certains pesticides organochlorés ; 2) Explorer la relation entre le risque de diabète de type 2 et les concentrations sériques des POC; 3) Examiner l’association entre l’obésité globale, le pourcentage de masse grasse et l’obésité abdominale avec les concentrations sériques des POC; 4) Explorer la contribution de certaines sources d’exposition alimentaire et non-alimentaire aux concentrations sériques des POC. Méthodes : Il s'agit d'une étude cas-témoin qui concerne 258 adultes de 18 à 65 ans identifiés par deux valeurs glycémiques capillaire et veineuse au seuil de 7 mmol/l pour les diabétiques et 5,6mmol/l pour les témoins non diabétiques. Les 129 témoins ont été appariés aux 129 cas selon les critères suivants : l’ethnie, l’âge ± 5ans, le sexe et la localité de résidence. Les informations personnelles et celles portant sur les modes d’exposition ont été recueillies par questionnaire. Les concentrations sériques des POC ont été obtenues par chromatographie gazeuse couplée d’une spectrométrie de masse. L’obésité globale est déterminée par l’IMC ≥ 30 kg/m2. L’obésité abdominale est obtenue par le tour de taille selon les critères consensuels d’Alberti et al. pour la définition du syndrome métabolique. Le pourcentage de masse corporelle a été mesuré par bio-impédance électrique et été considéré comme élevé au seuil de 33% chez les femmes et 25% chez les hommes. Résultats: En comparant les 3ème et premier terciles des concentrations de p,p’-DDE et p,p’-DDT, les sujets du 3e tercile étaient deux à trois fois plus susceptibles de présenter du diabète que ceux du 1er tercile. La probabilité d’obésité abdominale ou de l’obésité générale (en contrôlant pour le statut diabétique) était accrue de trois à cinq fois dans le dernier tercile pour trois des quatre POC qui étaient détectables soit p,p’-DDT, β-HCH et trans-Nonachlore. Les facteurs socioéconomiques associés aux POC sériques sont le niveau d’éducation élevé, un meilleur revenu et la résidence en milieu urbain. Les sources d’exposition non alimentaire significativement associées aux concentrations sériques de POC étaient l’exposition professionnelle mixte (primaire et secondaire) aux pesticides et la consommation de tabac local. L’achat en opposition à l’autoproduction de plusieurs groupes de denrées alimentaire était associé à de plus fortes teneurs de POC. La fréquence de consommation hebdomadaire du poisson, des légumes, du fromage, de l’igname séchée ainsi que du mil, de l’huile de palme et de certaines légumineuses comme le soya, le néré, le niébé et le voandzou était significativement associées aux POC sériques. Conclusion : L’étude a mis en évidence la relation entre le niveau sérique de pesticides organochlorés d’une part, du diabète ou de l’obésité d’autre part. Les concentrations de POC observées au Borgou sont assez élevées et méritent d’être suivies et comparées à celles d’autres régions du pays. Les facteurs contribuant à ces teneurs élevées sont le niveau d’éducation élevé, un meilleur revenu, la résidence en milieu urbain, l’achat et la fréquence de consommation de plusieurs aliments. La contribution du mélange des polluants auxquels les habitants de cette région sont exposés à la prévalence croissante du diabète mérite d’être examinée, notamment les pesticides utilisés actuellement dans la région pour les productions de rente et autres polluants persistants. Ces résultats contribuent à accroître les connaissances sur les facteurs de risque émergents pour le diabète que sont des polluants environnementaux comme les pesticides. Les implications pour la santé publique sont importantes tant pour la prévention des maladies chroniques que pour la sensibilisation des autorités politiques du pays pour une politique agricole et sanitaire adéquate visant la réduction de l’exposition aux pesticides.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The term reliability of an equipment or device is often meant to indicate the probability that it carries out the functions expected of it adequately or without failure and within specified performance limits at a given age for a desired mission time when put to use under the designated application and operating environmental stress. A broad classification of the approaches employed in relation to reliability studies can be made as probabilistic and deterministic, where the main interest in the former is to device tools and methods to identify the random mechanism governing the failure process through a proper statistical frame work, while the latter addresses the question of finding the causes of failure and steps to reduce individual failures thereby enhancing reliability. In the probabilistic attitude to which the present study subscribes to, the concept of life distribution, a mathematical idealisation that describes the failure times, is fundamental and a basic question a reliability analyst has to settle is the form of the life distribution. It is for no other reason that a major share of the literature on the mathematical theory of reliability is focussed on methods of arriving at reasonable models of failure times and in showing the failure patterns that induce such models. The application of the methodology of life time distributions is not confined to the assesment of endurance of equipments and systems only, but ranges over a wide variety of scientific investigations where the word life time may not refer to the length of life in the literal sense, but can be concieved in its most general form as a non-negative random variable. Thus the tools developed in connection with modelling life time data have found applications in other areas of research such as actuarial science, engineering, biomedical sciences, economics, extreme value theory etc.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present work is intended to discuss various properties and reliability aspects of higher order equilibrium distributions in continuous, discrete and multivariate cases, which contribute to the study on equilibrium distributions. At first, we have to study and consolidate the existing literature on equilibrium distributions. For this we need some basic concepts in reliability. These are being discussed in the 2nd chapter, In Chapter 3, some identities connecting the failure rate functions and moments of residual life of the univariate, non-negative continuous equilibrium distributions of higher order and that of the baseline distribution are derived. These identities are then used to characterize the generalized Pareto model, mixture of exponentials and gamma distribution. An approach using the characteristic functions is also discussed with illustrations. Moreover, characterizations of ageing classes using stochastic orders has been discussed. Part of the results of this chapter has been reported in Nair and Preeth (2009). Various properties of equilibrium distributions of non-negative discrete univariate random variables are discussed in Chapter 4. Then some characterizations of the geo- metric, Waring and negative hyper-geometric distributions are presented. Moreover, the ageing properties of the original distribution and nth order equilibrium distribu- tions are compared. Part of the results of this chapter have been reported in Nair, Sankaran and Preeth (2012). Chapter 5 is a continuation of Chapter 4. Here, several conditions, in terms of stochastic orders connecting the baseline and its equilibrium distributions are derived. These conditions can be used to rede_ne certain ageing notions. Then equilibrium distributions of two random variables are compared in terms of various stochastic orders that have implications in reliability applications. In Chapter 6, we make two approaches to de_ne multivariate equilibrium distribu- tions of order n. Then various properties including characterizations of higher order equilibrium distributions are presented. Part of the results of this chapter have been reported in Nair and Preeth (2008). The Thesis is concluded in Chapter 7. A discussion on further studies on equilib- rium distributions is also made in this chapter.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Biological systems exhibit rich and complex behavior through the orchestrated interplay of a large array of components. It is hypothesized that separable subsystems with some degree of functional autonomy exist; deciphering their independent behavior and functionality would greatly facilitate understanding the system as a whole. Discovering and analyzing such subsystems are hence pivotal problems in the quest to gain a quantitative understanding of complex biological systems. In this work, using approaches from machine learning, physics and graph theory, methods for the identification and analysis of such subsystems were developed. A novel methodology, based on a recent machine learning algorithm known as non-negative matrix factorization (NMF), was developed to discover such subsystems in a set of large-scale gene expression data. This set of subsystems was then used to predict functional relationships between genes, and this approach was shown to score significantly higher than conventional methods when benchmarking them against existing databases. Moreover, a mathematical treatment was developed to treat simple network subsystems based only on their topology (independent of particular parameter values). Application to a problem of experimental interest demonstrated the need for extentions to the conventional model to fully explain the experimental data. Finally, the notion of a subsystem was evaluated from a topological perspective. A number of different protein networks were examined to analyze their topological properties with respect to separability, seeking to find separable subsystems. These networks were shown to exhibit separability in a nonintuitive fashion, while the separable subsystems were of strong biological significance. It was demonstrated that the separability property found was not due to incomplete or biased data, but is likely to reflect biological structure.