916 resultados para Non-negative sources


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction : La présente étude explore pour la première fois en Afrique, l'association entre l'exposition aux pesticides organochlorés (POC) et le risque de diabète de type 2. L’étude se déroule dans la région du Borgou, au nord du Bénin, où l’utilisation intense de pesticides pour la culture du coton coïncide avec une prévalence élevée du diabète par rapport aux autres régions du pays. Objectifs: 1) Décrire le niveau d’exposition de la population des diabétiques et non diabétiques du Borgou par le taux sérique de certains pesticides organochlorés ; 2) Explorer la relation entre le risque de diabète de type 2 et les concentrations sériques des POC; 3) Examiner l’association entre l’obésité globale, le pourcentage de masse grasse et l’obésité abdominale avec les concentrations sériques des POC; 4) Explorer la contribution de certaines sources d’exposition alimentaire et non-alimentaire aux concentrations sériques des POC. Méthodes : Il s'agit d'une étude cas-témoin qui concerne 258 adultes de 18 à 65 ans identifiés par deux valeurs glycémiques capillaire et veineuse au seuil de 7 mmol/l pour les diabétiques et 5,6mmol/l pour les témoins non diabétiques. Les 129 témoins ont été appariés aux 129 cas selon les critères suivants : l’ethnie, l’âge ± 5ans, le sexe et la localité de résidence. Les informations personnelles et celles portant sur les modes d’exposition ont été recueillies par questionnaire. Les concentrations sériques des POC ont été obtenues par chromatographie gazeuse couplée d’une spectrométrie de masse. L’obésité globale est déterminée par l’IMC ≥ 30 kg/m2. L’obésité abdominale est obtenue par le tour de taille selon les critères consensuels d’Alberti et al. pour la définition du syndrome métabolique. Le pourcentage de masse corporelle a été mesuré par bio-impédance électrique et été considéré comme élevé au seuil de 33% chez les femmes et 25% chez les hommes. Résultats: En comparant les 3ème et premier terciles des concentrations de p,p’-DDE et p,p’-DDT, les sujets du 3e tercile étaient deux à trois fois plus susceptibles de présenter du diabète que ceux du 1er tercile. La probabilité d’obésité abdominale ou de l’obésité générale (en contrôlant pour le statut diabétique) était accrue de trois à cinq fois dans le dernier tercile pour trois des quatre POC qui étaient détectables soit p,p’-DDT, β-HCH et trans-Nonachlore. Les facteurs socioéconomiques associés aux POC sériques sont le niveau d’éducation élevé, un meilleur revenu et la résidence en milieu urbain. Les sources d’exposition non alimentaire significativement associées aux concentrations sériques de POC étaient l’exposition professionnelle mixte (primaire et secondaire) aux pesticides et la consommation de tabac local. L’achat en opposition à l’autoproduction de plusieurs groupes de denrées alimentaire était associé à de plus fortes teneurs de POC. La fréquence de consommation hebdomadaire du poisson, des légumes, du fromage, de l’igname séchée ainsi que du mil, de l’huile de palme et de certaines légumineuses comme le soya, le néré, le niébé et le voandzou était significativement associées aux POC sériques. Conclusion : L’étude a mis en évidence la relation entre le niveau sérique de pesticides organochlorés d’une part, du diabète ou de l’obésité d’autre part. Les concentrations de POC observées au Borgou sont assez élevées et méritent d’être suivies et comparées à celles d’autres régions du pays. Les facteurs contribuant à ces teneurs élevées sont le niveau d’éducation élevé, un meilleur revenu, la résidence en milieu urbain, l’achat et la fréquence de consommation de plusieurs aliments. La contribution du mélange des polluants auxquels les habitants de cette région sont exposés à la prévalence croissante du diabète mérite d’être examinée, notamment les pesticides utilisés actuellement dans la région pour les productions de rente et autres polluants persistants. Ces résultats contribuent à accroître les connaissances sur les facteurs de risque émergents pour le diabète que sont des polluants environnementaux comme les pesticides. Les implications pour la santé publique sont importantes tant pour la prévention des maladies chroniques que pour la sensibilisation des autorités politiques du pays pour une politique agricole et sanitaire adéquate visant la réduction de l’exposition aux pesticides.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The term reliability of an equipment or device is often meant to indicate the probability that it carries out the functions expected of it adequately or without failure and within specified performance limits at a given age for a desired mission time when put to use under the designated application and operating environmental stress. A broad classification of the approaches employed in relation to reliability studies can be made as probabilistic and deterministic, where the main interest in the former is to device tools and methods to identify the random mechanism governing the failure process through a proper statistical frame work, while the latter addresses the question of finding the causes of failure and steps to reduce individual failures thereby enhancing reliability. In the probabilistic attitude to which the present study subscribes to, the concept of life distribution, a mathematical idealisation that describes the failure times, is fundamental and a basic question a reliability analyst has to settle is the form of the life distribution. It is for no other reason that a major share of the literature on the mathematical theory of reliability is focussed on methods of arriving at reasonable models of failure times and in showing the failure patterns that induce such models. The application of the methodology of life time distributions is not confined to the assesment of endurance of equipments and systems only, but ranges over a wide variety of scientific investigations where the word life time may not refer to the length of life in the literal sense, but can be concieved in its most general form as a non-negative random variable. Thus the tools developed in connection with modelling life time data have found applications in other areas of research such as actuarial science, engineering, biomedical sciences, economics, extreme value theory etc.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present work is intended to discuss various properties and reliability aspects of higher order equilibrium distributions in continuous, discrete and multivariate cases, which contribute to the study on equilibrium distributions. At first, we have to study and consolidate the existing literature on equilibrium distributions. For this we need some basic concepts in reliability. These are being discussed in the 2nd chapter, In Chapter 3, some identities connecting the failure rate functions and moments of residual life of the univariate, non-negative continuous equilibrium distributions of higher order and that of the baseline distribution are derived. These identities are then used to characterize the generalized Pareto model, mixture of exponentials and gamma distribution. An approach using the characteristic functions is also discussed with illustrations. Moreover, characterizations of ageing classes using stochastic orders has been discussed. Part of the results of this chapter has been reported in Nair and Preeth (2009). Various properties of equilibrium distributions of non-negative discrete univariate random variables are discussed in Chapter 4. Then some characterizations of the geo- metric, Waring and negative hyper-geometric distributions are presented. Moreover, the ageing properties of the original distribution and nth order equilibrium distribu- tions are compared. Part of the results of this chapter have been reported in Nair, Sankaran and Preeth (2012). Chapter 5 is a continuation of Chapter 4. Here, several conditions, in terms of stochastic orders connecting the baseline and its equilibrium distributions are derived. These conditions can be used to rede_ne certain ageing notions. Then equilibrium distributions of two random variables are compared in terms of various stochastic orders that have implications in reliability applications. In Chapter 6, we make two approaches to de_ne multivariate equilibrium distribu- tions of order n. Then various properties including characterizations of higher order equilibrium distributions are presented. Part of the results of this chapter have been reported in Nair and Preeth (2008). The Thesis is concluded in Chapter 7. A discussion on further studies on equilib- rium distributions is also made in this chapter.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Biological systems exhibit rich and complex behavior through the orchestrated interplay of a large array of components. It is hypothesized that separable subsystems with some degree of functional autonomy exist; deciphering their independent behavior and functionality would greatly facilitate understanding the system as a whole. Discovering and analyzing such subsystems are hence pivotal problems in the quest to gain a quantitative understanding of complex biological systems. In this work, using approaches from machine learning, physics and graph theory, methods for the identification and analysis of such subsystems were developed. A novel methodology, based on a recent machine learning algorithm known as non-negative matrix factorization (NMF), was developed to discover such subsystems in a set of large-scale gene expression data. This set of subsystems was then used to predict functional relationships between genes, and this approach was shown to score significantly higher than conventional methods when benchmarking them against existing databases. Moreover, a mathematical treatment was developed to treat simple network subsystems based only on their topology (independent of particular parameter values). Application to a problem of experimental interest demonstrated the need for extentions to the conventional model to fully explain the experimental data. Finally, the notion of a subsystem was evaluated from a topological perspective. A number of different protein networks were examined to analyze their topological properties with respect to separability, seeking to find separable subsystems. These networks were shown to exhibit separability in a nonintuitive fashion, while the separable subsystems were of strong biological significance. It was demonstrated that the separability property found was not due to incomplete or biased data, but is likely to reflect biological structure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Starting with logratio biplots for compositional data, which are based on the principle of subcompositional coherence, and then adding weights, as in correspondence analysis, we rediscover Lewi's spectral map and many connections to analyses of two-way tables of non-negative data. Thanks to the weighting, the method also achieves the property of distributional equivalence

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Avui en dia no es pot negar el fet que els humans són un component més de les conques fluvials i que la seva activitat afecta enormement la qualitat de les aigües. A nivell europeu, l'elevada densitat de població situada en les conques fluvials ha comportat un increment de la mala qualitat de les seves aigües fluvials. En les darreres dècades l'increment de les càrregues de nutrients en els sistemes aquàtics ha esdevingut un problema prioritari a solucionar per les administracions competents en matèria d'aigua. La gestió dels ecosistemes fluvials no és una tasca fàcil. Els gestors es troben amb què són sistemes molt complexos, donada l'estreta relació existent entre els ecosistemes fluvials i els ecosistemes terrestres que drenen. Addicionalment a la complexitat d'aquests sistemes es troba la dificultat associada de la gestió o control de les entrades de substàncies contaminants tant de fonts puntuals com difoses. Per totes aquestes raons la gestió de la qualitat de les aigües fluvials esdevé una tasca complexa que requereix un enfocament multidisciplinar. Per tal d'assolir aquest enfocament diverses eines han estat utilitzades, des de models matemàtics fins a sistemes experts i sistemes de suport a la decisió. Però, la major part dels esforços han estat encarats cap a la resolució de problemes de reduïda complexitat, fent que molts dels problemes ambientals complexos, com ara la gestió dels ecosistemes fluvials, no hagin estat vertaderament tractats. Per tant, es requereix l'aplicació d'eines que siguin de gran ajuda en els processos de presa de decisions i que incorporin un ampli coneixement heurístic i empíric: sistemes experts i sistemes de suport a la decisió. L'òptima gestió de la qualitat de l'aigua fluvial requereix una aproximació integrada i multidisciplinar, que pot ésser aconseguida amb una eina intel·ligent construïda sobre els conceptes i mètodes del raonament humà. La present tesi descriu la metodologia desenvolupada i aplicada per a la creació i construcció d'un Sistema Expert, així com el procés de desenvolupament d'aquest Sistema Expert, com el principal mòdul de raonament d'un Sistema de Suport a la Decisió Ambiental. L'objectiu principal de la present tesi ha estat el desenvolupament d'una eina d'ajuda en el procés de presa de decisions dels gestors de l'aigua en la gestió de trams fluvials alterats antròpicament per tal de millorar la qualitat de la seva aigua fluvial. Alhora, es mostra el funcionament de l'eina desenvolupada a través de dos casos d'estudi. Els resultats derivats del Sistema Expert desenvolupat, implementat i presentat en la present tesi mostren que aquests sistemes poden ésser eines útils per a millorar la gestió dels ecosistemes fluvials.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We introduce transreal analysis as a generalisation of real analysis. We find that the generalisation of the real exponential and logarithmic functions is well defined for all transreal numbers. Hence, we derive well defined values of all transreal powers of all non-negative transreal numbers. In particular, we find a well defined value for zero to the power of zero. We also note that the computation of products via the transreal logarithm is identical to the transreal product, as expected. We then generalise all of the common, real, trigonometric functions to transreal functions and show that transreal (sin x)/x is well defined everywhere. This raises the possibility that transreal analysis is total, in other words, that every function and every limit is everywhere well defined. If so, transreal analysis should be an adequate mathematical basis for analysing the perspex machine - a theoretical, super-Turing machine that operates on a total geometry. We go on to dispel all of the standard counter "proofs" that purport to show that division by zero is impossible. This is done simply by carrying the proof through in transreal arithmetic or transreal analysis. We find that either the supposed counter proof has no content or else that it supports the contention that division by zero is possible. The supposed counter proofs rely on extending the standard systems in arbitrary and inconsistent ways and then showing, tautologously, that the chosen extensions are not consistent. This shows only that the chosen extensions are inconsistent and does not bear on the question of whether division by zero is logically possible. By contrast, transreal arithmetic is total and consistent so it defeats any possible "straw man" argument. Finally, we show how to arrange that a function has finite or else unmeasurable (nullity) values, but no infinite values. This arithmetical arrangement might prove useful in mathematical physics because it outlaws naked singularities in all equations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Use of orthogonal space-time block codes (STBCs) with multiple transmitters and receivers can improve signal quality. However, in optical intensity modulated signals, output of the transmitter is non-negative and hence standard orthogonal STBC schemes need to be modified. A generalised framework for applying orthogonal STBCs for free-space IM/DD optical links is presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Theory of mind ability has been associated with performance in interpersonal interactions and has been found to influence aspects such as emotion recognition, social competence, and social anxiety. Being able to attribute mental states to others requires attention to subtle communication cues such as facial emotional expressions. Decoding and interpreting emotions expressed by the face, especially those with negative valence, are essential skills to successful social interaction. The current study explored the association between theory of mind skills and attentional bias to facial emotional expressions. According to the study hypothesis, individuals with poor theory of mind skills showed preferential attention to negative faces over both non-negative faces and neutral objects. Tentative explanations for the findings are offered emphasizing the potential adaptive role of vigilance for threat as a way of allocating a limited capacity to interpret others’ mental states to obtain as much information as possible about potential danger in the social environment.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Use of orthogonal space-time block codes (STBCs) with multiple transmitters and receivers can improve signal quality. However, in optical intensity modulated signals, output of the transmitter is non-negative and hence standard orthogonal STBC schemes need to be modified. A generalised framework for applying orthogonal STBCs for free-space IM/DD optical links is presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Decision strategies in multi-attribute Choice Experiments are investigated using eye-tracking. The visual attention towards, and attendance of, attributes is examined. Stated attendance is found to diverge substantively from visual attendance of attributes. However, stated and visual attendance are shown to be informative, non-overlapping sources of information about respondent utility functions when incorporated into model estimation. Eye-tracking also reveals systematic nonattendance of attributes only by a minority of respondents. Most respondents visually attend most attributes most of the time. We find no compelling evidence that the level of attention is related to respondent certainty, or that higher or lower value attributes receive more or less attention

Relevância:

80.00% 80.00%

Publicador:

Resumo:

India is increasingly investing in renewable technology to meet rising energy demands, with hydropower and other renewables comprising one-third of current installed capacity. Installed wind-power is projected to increase 5-fold by 2035 (to nearly 100GW) under the International Energy Agency’s New Policies scenario. However, renewable electricity generation is dependent upon the prevailing meteorology, which is strongly influenced by monsoon variability. Prosperity and widespread electrification are increasing the demand for air conditioning, especially during the warm summer. This study uses multi-decadal observations and meteorological reanalysis data to assess the impact of intraseasonal monsoon variability on the balance of electricity supply from wind-power and temperature-related demand in India. Active monsoon phases are characterised by vigorous convection and heavy rainfall over central India. This results in lower temperatures giving lower cooling energy demand, while strong westerly winds yield high wind-power output. In contrast, monsoon breaks are characterised by suppressed precipitation, with higher temperatures and hence greater demand for cooling, and lower wind-power output across much of India. The opposing relationship between wind-power supply and cooling demand during active phases (low demand, high supply) and breaks (high demand, low supply) suggests that monsoon variability will tend to exacerbate fluctuations in the so-called demand-net-wind (i.e., electrical demand that must be supplied from non-wind sources). This study may have important implications for the design of power systems and for investment decisions in conventional schedulable generation facilities (such as coal and gas) that are used to maintain the supply/demand balance. In particular, if it is assumed (as is common) that the generated wind-power operates as a price-taker (i.e., wind farm operators always wish to sell their power, irrespective of price) then investors in conventional facilities will face additional weather-volatility through the monsoonal impact on the length and frequency of production periods (i.e. their load-duration curves).