958 resultados para Non-Local Model
Resumo:
ABSTRACTChanges in the frequency of occurrence of extreme weather events have been pointed out as a likely impact of global warming. In this context, this study aimed to detect climate change in series of extreme minimum and maximum air temperature of Pelotas, State of Rio Grande do Sul, (1896 - 2011) and its influence on the probability of occurrence of these variables. We used the general extreme value distribution (GEV) in its stationary and non-stationary forms. In the latter case, GEV parameters are variable over time. On the basis of goodness-of-fit tests and of the maximum likelihood method, the GEV model in which the location parameter increases over time presents the best fit of the daily minimum air temperature series. Such result describes a significant increase in the mean values of this variable, which indicates a potential reduction in the frequency of frosts. The daily maximum air temperature series is also described by a non-stationary model, whose location parameter decreases over time, and the scale parameter related to sample variance rises between the beginning and end of the series. This result indicates a drop in the mean of daily maximum air temperature values and increased dispersion of the sample data.
Resumo:
Computational material science with the Density Functional Theory (DFT) has recently gained a method for describing, for the first time the non local bonding i.e., van der Waals (vdW) bonding. The newly proposed van der Waals-Density Functional (vdW-DF) is employed here to address the role of non local interactions in the case of H2 adsorption on Ru(0001) surface. The later vdW-DF2 implementation with the DFT code VASP (Vienna Ab-initio Simulation Package) is used in this study. The motivation for studying H2 adsorption on ruthenium surface arose from the interest to hydrogenation processes. Potential energy surface (PES) plots are created for adsorption sites top, bridge, fcc and hcp, employing the vdW-DF2 functional. The vdW-DF yields 0.1 eV - 0.2 eV higher barriers for the dissociation of the H2 molecule; the vdW-DF seems to bind the H2 molecule more tightly together. Furthermore, at the top site, which is found to be the most reactive, the vdW functional suggests no entrance barrier or in any case smaller than 0.05 eV, whereas the corresponding calculation without the vdW-DF does. Ruthenium and H2 are found to have the opposite behaviors with the vdW-DF; Ru lattice constants are overestimated while H2 bond length is shorter. Also evaluation of the CPU time demand of the vdW-DF2 is done from the PES data. From top to fcc sites the vdW-DF computational time demand is larger by 4.77 % to 20.09 %, while at the hcp site it is slightly smaller. Also the behavior of a few exchange correlation functionals is investigated along addressing the role of vdW-DF. Behavior of the different functionals is not consistent between the Ru lattice constants and H2 bond lengths. It is thus difficult to determine the quality of a particular exchange correlation functional by comparing equilibrium separations of the different elements. By comparing PESs it would be computationally highly consuming.
Resumo:
This work deals with an hybrid PID+fuzzy logic controller applied to control the machine tool biaxial table motions. The non-linear model includes backlash and the axis elasticity. Two PID controllers do the primary table control. A third PID+fuzzy controller has a cross coupled structure whose function is to minimise the trajectory contour errors. Once with the three PID controllers tuned, the system is simulated with and without the third controller. The responses results are plotted and compared to analyse the effectiveness of this hybrid controller over the system. They show that the proposed methodology reduces the contour error in a proportion of 70:1.
Resumo:
A control law was designed for a satellite launcher ( rocket ) vehicle using eigenstructure assignment in order that the vehicle tracks a reference attitude and also to decouple the yaw response from roll and pitch manoeuvres and to decouple the pitch response from roll and yaw manoeuvres. The design was based on a complete linear coupled model obtained from the complete vehicle non linear model by linearization at each trajectory point. After all, the design was assessed with the vehicle time varying non-linear model showing a good performance and robustness. The used design method is explained and a case study for the Brazilian satellite launcher ( VLS Rocket ) is reported.
Resumo:
Le Mali est devenu un milieu attractif pour les essais cliniques. Cependant, le cadre de réglementation pour leur surveillance y est très limité. Le pays manque de l’expertise, de l’infrastructure et des ressources nécessaires pour mettre en œuvre pleinement la régulation. Ceci représente un risque pour la sécurité des sujets de recherche et l’intégrité des résultats scientifiques. Il ne permet pas non plus de s’aligner sur les normes internationales en vigueur, telles que la déclaration d’Helsinki, les directives éthiques internationales du Conseil des organisations internationales des sciences médicales (CIOMS) ou les réglementations de pays industrialisés comme les États-Unis, le Canada ou l’Union Européenne. Pour améliorer la situation, la présente étude vise à comprendre les enjeux de la régulation des essais cliniques au Mali afin de suggérer des pistes de solutions et des recommandations. L’étude a été réalisée à l’aide de méthodes qualitatives, soit l’examen de documents officiels et des entrevues semi-dirigées avec les principaux acteurs impliqués dans les essais cliniques. La théorie néo-institutionnelle a servi de toile de fond à l’analyse des données. L’approche néo-institutionnelle consiste à expliquer l’influence de l’environnement sur les organisations. Selon cette approche, l’environnement s’assimile à des champs organisationnels incluant les connexions locales ou non, les liens horizontaux et verticaux, les influences culturelles et politiques ainsi que les échanges techniques. Les résultats présentés dans un premier article montrent l’existence de nombreux enjeux reflétant la carence du système de régulation au Mali. La coexistence de quatre scénarios d’approbation des essais cliniques illustre bien l’inconsistance des mécanismes. Tout comme l’absence d’inspection, l’inconsistance des mécanismes traduit également l’intervention limitée des pouvoirs publics dans la surveillance réglementaire. Ces enjeux résultent d’une double influence subie par les autorités réglementaires et les comités d’éthique. Ceux-ci sont, d’une part, influencés par l’environnement institutionnel sous pressions réglementaires, cognitives et normatives. D’autre part, les pouvoirs publics subissent l’influence des chercheurs qui opèrent comme des entrepreneurs institutionnels en occupant un rôle central dans le champ de la régulation. Dans un second article, l’étude propose une analyse détaillée des facteurs influençant la régulation des essais cliniques. Ces facteurs sont synthétisés en cinq groupes répartis entre deux sphères d’influence. L’analyse montre combien ces facteurs influencent négativement la régulation, notamment : 1) la structuration inachevée du champ de régulation due à un faible degré d’interactions, une absence de structure de coordination, d’informations mutuelles et de conscience dans la constitution des interdépendances; et 2) les positions relatives des acteurs impliqués dans la construction du champ de régulation se manifestant par une faible autorité des pouvoirs publics et l’ascendance des groupes de recherche. Enfin, dans un troisième article nous proposons quelques mécanismes qui, s’ils sont mis en œuvre, pourraient améliorer la régulation des essais cliniques au Mali. Ces mécanismes sont présentés, en référence au cadre théorique, sous trois types de vecteurs d’influence, notamment réglementaires, normatifs et cognitifs-culturels. En guise de conclusion, l’étude envoie un signal fort pour la nécessité d’une régulation appropriée des essais cliniques au Mali. Elle montre que la plupart des problèmes de fond en matière de régulation relèvent d’un besoin de restructuration du champ organisationnel et de renforcement de la position des pouvoirs publics.
Resumo:
Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
The thesis deals with some of the non-linear Gaussian and non-Gaussian time models and mainly concentrated in studying the properties and application of a first order autoregressive process with Cauchy marginal distribution. In this thesis some of the non-linear Gaussian and non-Gaussian time series models and mainly concentrated in studying the properties and application of a order autoregressive process with Cauchy marginal distribution. Time series relating to prices, consumptions, money in circulation, bank deposits and bank clearing, sales and profit in a departmental store, national income and foreign exchange reserves, prices and dividend of shares in a stock exchange etc. are examples of economic and business time series. The thesis discuses the application of a threshold autoregressive(TAR) model, try to fit this model to a time series data. Another important non-linear model is the ARCH model, and the third model is the TARCH model. The main objective here is to identify an appropriate model to a given set of data. The data considered are the daily coconut oil prices for a period of three years. Since it is a price data the consecutive prices may not be independent and hence a time series based model is more appropriate. In this study the properties like ergodicity, mixing property and time reversibility and also various estimation procedures used to estimate the unknown parameters of the process.
Resumo:
Computational Biology is the research are that contributes to the analysis of biological data through the development of algorithms which will address significant research problems.The data from molecular biology includes DNA,RNA ,Protein and Gene expression data.Gene Expression Data provides the expression level of genes under different conditions.Gene expression is the process of transcribing the DNA sequence of a gene into mRNA sequences which in turn are later translated into proteins.The number of copies of mRNA produced is called the expression level of a gene.Gene expression data is organized in the form of a matrix. Rows in the matrix represent genes and columns in the matrix represent experimental conditions.Experimental conditions can be different tissue types or time points.Entries in the gene expression matrix are real values.Through the analysis of gene expression data it is possible to determine the behavioral patterns of genes such as similarity of their behavior,nature of their interaction,their respective contribution to the same pathways and so on. Similar expression patterns are exhibited by the genes participating in the same biological process.These patterns have immense relevance and application in bioinformatics and clinical research.Theses patterns are used in the medical domain for aid in more accurate diagnosis,prognosis,treatment planning.drug discovery and protein network analysis.To identify various patterns from gene expression data,data mining techniques are essential.Clustering is an important data mining technique for the analysis of gene expression data.To overcome the problems associated with clustering,biclustering is introduced.Biclustering refers to simultaneous clustering of both rows and columns of a data matrix. Clustering is a global whereas biclustering is a local model.Discovering local expression patterns is essential for identfying many genetic pathways that are not apparent otherwise.It is therefore necessary to move beyond the clustering paradigm towards developing approaches which are capable of discovering local patterns in gene expression data.A biclusters is a submatrix of the gene expression data matrix.The rows and columns in the submatrix need not be contiguous as in the gene expression data matrix.Biclusters are not disjoint.Computation of biclusters is costly because one will have to consider all the combinations of columans and rows in order to find out all the biclusters.The search space for the biclustering problem is 2 m+n where m and n are the number of genes and conditions respectively.Usually m+n is more than 3000.The biclustering problem is NP-hard.Biclustering is a powerful analytical tool for the biologist.The research reported in this thesis addresses the problem of biclustering.Ten algorithms are developed for the identification of coherent biclusters from gene expression data.All these algorithms are making use of a measure called mean squared residue to search for biclusters.The objective here is to identify the biclusters of maximum size with the mean squared residue lower than a given threshold. All these algorithms begin the search from tightly coregulated submatrices called the seeds.These seeds are generated by K-Means clustering algorithm.The algorithms developed can be classified as constraint based,greedy and metaheuristic.Constarint based algorithms uses one or more of the various constaints namely the MSR threshold and the MSR difference threshold.The greedy approach makes a locally optimal choice at each stage with the objective of finding the global optimum.In metaheuristic approaches particle Swarm Optimization(PSO) and variants of Greedy Randomized Adaptive Search Procedure(GRASP) are used for the identification of biclusters.These algorithms are implemented on the Yeast and Lymphoma datasets.Biologically relevant and statistically significant biclusters are identified by all these algorithms which are validated by Gene Ontology database.All these algorithms are compared with some other biclustering algorithms.Algorithms developed in this work overcome some of the problems associated with the already existing algorithms.With the help of some of the algorithms which are developed in this work biclusters with very high row variance,which is higher than the row variance of any other algorithm using mean squared residue, are identified from both Yeast and Lymphoma data sets.Such biclusters which make significant change in the expression level are highly relevant biologically.
Resumo:
This research work deals with the problem of modeling and design of low level speed controller for the mobile robot PRIM. The main objective is to develop an effective educational tool. On one hand, the interests in using the open mobile platform PRIM consist in integrating several highly related subjects to the automatic control theory in an educational context, by embracing the subjects of communications, signal processing, sensor fusion and hardware design, amongst others. On the other hand, the idea is to implement useful navigation strategies such that the robot can be served as a mobile multimedia information point. It is in this context, when navigation strategies are oriented to goal achievement, that a local model predictive control is attained. Hence, such studies are presented as a very interesting control strategy in order to develop the future capabilities of the system
Resumo:
Piecewise linear models systems arise as mathematical models of systems in many practical applications, often from linearization for nonlinear systems. There are two main approaches of dealing with these systems according to their continuous or discrete-time aspects. We propose an approach which is based on the state transformation, more particularly the partition of the phase portrait in different regions where each subregion is modeled as a two-dimensional linear time invariant system. Then the Takagi-Sugeno model, which is a combination of local model is calculated. The simulation results show that the Alpha partition is well-suited for dealing with such a system
Resumo:
El EuroSCORE II es una de las escalas más empleadas como predictor de riesgo de mortalidad en los servicios de cirugía cardiovascular. Esta ha sido validada en diferentes hospitales alrededor del mundo demostrando una adecuada capacidad de discriminación. El objetivo de este estudio fue evaluar el valor predictivo de la escala de riesgo EuroSCORE II en los pacientes sometidos a Cirugía Cardiovascular en una institución de cuarto nivel de Bogotá. Metodología: Estudio de prueba diagnóstica observacional y retrospectivo de la cohorte de pacientes en una institución de cuarto nivel durante los años 2012 a 2014. Se realizó el cálculo del EuroSCORE II para cada paciente, comparando la mortalidad predicha versus la observada, de forma global y por grupo de riesgo. Resultados: Del total de la población que tuvo intervención cardiaca mayor en una institución de cuarto nivel en la cohorte estudiada se presentaron 58 casos de muerte en los treinta días posteriores a la intervención, que corresponde al 7,46%. La mortalidad esperada calculada con el EuroSCORE II fue del 9,26%, lo cual indica un buen poder de predicción para esta población. Por otro lado, la curva ROC evidencia con un valor de 0.757 del área bajo la curva, que el modelo El EuroSCORE II es un buen modelo predictivo con un adecuado valor de discriminación. Se evidenció que las variables estado crítico preoperatorio y función del ventrículo izquierdo tienen mayor peso estadístico en nuestra población objeto, con una significancia del 0,001, seguido de infarto agudo de miocardio, sexo y peso de la intervención con una significancia del 0,01. Adicionalmente, el Euroscore II tiene mejor valor predictivo cuando se realiza un solo procedimiento o revascularización, en comparación a cuando se realiza procedimientos mixtos. Se recomienda realizar un estudio multicéntrico donde se incluyan pacientes con diferentes características demográficas
Resumo:
Esta investigação teve como objeto de estudo o Ateliê Caderneta de Cromos, do projeto Geração Cool, fruto de uma parceria entre várias instituições do concelho de Almada. Trata--se de um projeto de desenvolvimento social comunitário, multicultural, associado a uma escola. Através de um estudo de caso, pretendeu analisar-se, criticamente, um modelo não formal de práticas ligadas às artes visuais, vocacionado para jovens em risco e mostrar como as aprendizagens desenvolvidas num ateliê de artes visuais contribuem para o processo de inclusão desses jovens. Desenvolveu-se um quadro teórico abrangente, no sentido de sustentar as perguntas iniciais, referenciando questões consideradas pertinentes tais como: visões contemporâneas das realidades multiculturais das periferias urbanas; perspetivas pós-modernistas de ensino artístico, defensoras de uma construção cognitiva; ação dos projetos artísticos de desenvolvimento social e ainda, a importância ética e social dos currículos artísticos atuais. Tendo como referência a hipótese de antagonismo e/ou complementaridade entre o ato pedagógico não formal e o institucional, o estudo procurou estabelecer uma relação entre essa prática e a inclusão, ao identificar e desmontar um roteiro estratégico de aprendizagens. O ato pedagógico no Ateliê mostrou potenciar uma aprendizagem construtiva nas respostas produzidas, sendo também significativa pelo caráter experiencial vivido e cognitiva no sentido em que determina a construção de um significado, assumido como a própria assunção identitária.
The TAMORA algorithm: satellite rainfall estimates over West Africa using multi-spectral SEVIRI data
Resumo:
A multi-spectral rainfall estimation algorithm has been developed for the Sahel region of West Africa with the purpose of producing accumulated rainfall estimates for drought monitoring and food security. Radar data were used to calibrate multi-channel SEVIRI data from MSG, and a probability of rainfall at several different rain-rates was established for each combination of SEVIRI radiances. Radar calibrations from both Europe (the SatPrecip algorithm) and Niger (TAMORA algorithm) were used. 10 day estimates were accumulated from SatPrecip and TAMORA and compared with kriged gauge data and TAMSAT satellite rainfall estimates over West Africa. SatPrecip was found to produce large overestimates for the region, probably because of its non-local calibration. TAMORA was negatively biased for areas of West Africa with relatively high rainfall, but its skill was comparable to TAMSAT for the low-rainfall region climatologically similar to its calibration area around Niamey. These results confirm the high importance of local calibration for satellite-derived rainfall estimates. As TAMORA shows no improvement in skill over TAMSAT for dekadal estimates, the extra cloud-microphysical information provided by multi-spectral data may not be useful in determining rainfall accumulations at a ten day timescale. Work is ongoing to determine whether it shows improved accuracy at shorter timescales.