361 resultados para Penalized spline


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The energy reform, which is happening all over the world, is caused by the common concern of the future of the humankind in our shared planet. In order to keep the effects of the global warming inside of a certain limit, the use of fossil fuels must be reduced. The marginal costs of the renewable sources, RES are quite high, since they are new technology. In order to induce the implementation of RES to the power grid and lower the marginal costs, subsidies were developed in order to make the use of RES more profitable. From the RES perspective the current market is developed to favor conventional generation, which mainly uses fossil fuels. Intermittent generation, like wind power, is penalized in the electricity market since it is intermittent and thus diffi-cult to control. Therefore, the need of regulation and thus the regulation costs to the producer differ, depending on what kind of generation market participant owns. In this thesis it is studied if there is a way for market participant, who has wind power to use the special characteristics of electricity market Nord Pool and thus reach the gap between conventional generation and the intermittent generation only by placing bids to the market. Thus, an optimal bid is introduced, which purpose is to minimize the regulation costs and thus lower the marginal costs of wind power. In order to make real life simulations in Nord Pool, a wind power forecast model was created. The simulations were done in years 2009 and 2010 by using a real wind power data provided by Hyötytuuli, market data from Nord Pool and wind forecast data provided by Finnish Meteorological Institute. The optimal bid needs probability intervals and therefore the methodology to create probability distributions is introduced in this thesis. In the end of the thesis it is shown that the optimal bidding improves the position of wind power producer in the electricity market.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The break point of the curve of blood lactate vs exercise load has been called anaerobic threshold (AT) and is considered to be an important indicator of endurance exercise capacity in human subjects. There are few studies of AT determination in animals. We describe a protocol for AT determination by the "lactate minimum test" in rats during swimming exercise. The test is based on the premise that during an incremental exercise test, and after a bout of maximal exercise, blood lactate decreases to a minimum and then increases again. This minimum value indicates the intensity of the AT. Adult male (90 days) Wistar rats adapted to swimming for 2 weeks were used. The initial state of lactic acidosis was obtained by making the animals jump into the water and swim while carrying a load equivalent to 50% of body weight for 6 min (30-s exercise interrupted by a 30-s rest). After a 9-min rest, blood was collected and the incremental swimming test was started. The test consisted of swimming while supporting loads of 4.5, 5.0, 5.5, 6.0 and 7.0% of body weight. Each exercise load lasted 5 min and was followed by a 30-s rest during which blood samples were taken. The blood lactate minimum was determined from a zero-gradient tangent to a spline function fitting the blood lactate vs workload curve. AT was estimated to be 4.95 ± 0.10% of body weight while interpolated blood lactate was 7.17 ± 0.16 mmol/l. These results suggest the application of AT determination in animal studies concerning metabolism during exercise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work is to invert the ionospheric electron density profile from Riometer (Relative Ionospheric opacity meter) measurement. The newly Riometer instrument KAIRA (Kilpisjärvi Atmospheric Imaging Receiver Array) is used to measure the cosmic HF radio noise absorption that taking place in the D-region ionosphere between 50 to 90 km. In order to invert the electron density profile synthetic data is used to feed the unknown parameter Neq using spline height method, which works by taking electron density profile at different altitude. Moreover, smoothing prior method also used to sample from the posterior distribution by truncating the prior covariance matrix. The smoothing profile approach makes the problem easier to find the posterior using MCMC (Markov Chain Monte Carlo) method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Type 2 diabetes increases the risk of cardiovascular mortality and these patients, even without previous myocardial infarction, run the risk of fatal coronary heart disease similar to non-diabetic patients surviving myocardial infarction. There is evidence showing that particulate matter air pollution is associated with increases in cardiopulmonary morbidity and mortality. The present study was carried out to evaluate the effect of diabetes mellitus on the association of air pollution with cardiovascular emergency room visits in a tertiary referral hospital in the city of São Paulo. Using a time-series approach, and adopting generalized linear Poisson regression models, we assessed the effect of daily variations in PM10, CO, NO2, SO2, and O3 on the daily number of emergency room visits for cardiovascular diseases in diabetic and non-diabetic patients from 2001 to 2003. A semi-parametric smoother (natural spline) was adopted to control long-term trends, linear term seasonal usage and weather variables. In this period, 45,000 cardiovascular emergency room visits were registered. The observed increase in interquartile range within the 2-day moving average of 8.0 µg/m³ SO2 was associated with 7.0% (95%CI: 4.0-11.0) and 20.0% (95%CI: 5.0-44.0) increases in cardiovascular disease emergency room visits by non-diabetic and diabetic groups, respectively. These data indicate that air pollution causes an increase of cardiovascular emergency room visits, and that diabetic patients are extremely susceptible to the adverse effects of air pollution on their health conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Findings on the effects of weather on health, especially the effects of ambient temperature on overall morbidity, remain inconsistent. We conducted a time series study to examine the acute effects of meteorological factors (mainly air temperature) on daily hospital outpatient admissions for cardiovascular disease (CVD) in Zunyi City, China, from January 1, 2007 to November 30, 2009. We used the generalized additive model with penalized splines to analyze hospital outpatient admissions, climatic parameters, and covariate data. Results show that, in Zunyi, air temperature was associated with hospital outpatient admission for CVD. When air temperature was less than 10°C, hospital outpatient admissions for CVD increased 1.07-fold with each increase of 1°C, and when air temperature was more than 10°C, an increase in air temperature by 1°C was associated with a 0.99-fold decrease in hospital outpatient admissions for CVD over the previous year. Our analyses provided statistically significant evidence that in China meteorological factors have adverse effects on the health of the general population. Further research with consistent methodology is needed to clarify the magnitude of these effects and to show which populations and individuals are vulnerable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A combinação da espectroscopia no infravermelho próximo (NIR) e calibração multivariada (método dos mínimos quadrados parciais - PLS) para a determinação do teor de proteína total em amostras de café cru, foi investigada. Os teores de proteína total foram inicialmente determinados usando-se como método de referência o de Kjeldhal, e, posteriormente foram construídos modelos de regressão a partir dos espectros na região do infravermelho próximo das amostras de café cru. Foram coletados 159 espectros das amostras de café cru utilizando um acessório de reflectância difusa, na faixa espectral de 4500 a 10000cm-1. Os espectros originais no NIR sofreram diferentes transformações e pré-tratamento matemático, como a transformação Kubelka-Munk; correção multiplicativa de sinal (MSC); alisamento (SPLINE); derivada primeira; média móvel e o pré-tratamento dos dados escalados pela variância. O método analítico proposto possibilitou a determinação direta, sem destruição da amostra, com obtenção de resultados rápidos e sem o consumo de reagentes químicos de forma a preservar o meio ambiente. O método proposto forneceu resultados com boa capacidade de previsão do teor de proteína total, sendo que os erros médios foram inferiores a 6,7%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A espectroscopia na região do infravermelho próximo (NIR) foi usada para determinar o teor de umidade em amostras de café cru. Foram construídos modelos de regressão usando o método dos mínimos quadrados parciais (PLS) com diferentes pré-tratamentos de dados e 157 espectros NIR coletados de amostras de café usando um acessório de reflectância difusa, na região entre 4500 e 10000 cm-1. Os espectros originais passaram por diferentes transformações e pré-tratamentos matemáticos, como a transformação Kubelka-Munk; a correção multiplicativa de sinal (MSC); o alisamento com SPLINE e a média móvel, e os dados foram escalados pela variância. O modelo de regressão permitiu determinar o teor de umidade nas amostras de café cru com erro quadrático médio de calibração (SEC) de 0,569 g.100 g -1; erro quadrático médio de validação de 0,298 g.100 g -1; coeficiente de correlação (r) 0,712 e 0,818 para calibração e validação, respectivamente; e erro relativo médio de 4,1% para amostras de validação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours du siècle dernier, nous avons pu observer une diminution remarquable de la mortalité dans toutes les régions du monde, en particulier dans les pays développés. Cette chute a été caractérisée par des modifications importantes quant à la répartition des décès selon l'âge, ces derniers ne se produisant plus principalement durant les premiers âges de la vie mais plutôt au-delà de l'âge de 65 ans. Notre étude s'intéresse spécifiquement au suivi fin et détaillé des changements survenus dans la distribution des âges au décès chez les personnes âgées. Pour ce faire, nous proposons une nouvelle méthode de lissage non paramétrique souple qui repose sur l'utilisation des P-splines et qui mène à une expression précise de la mortalité, telle que décrite par les données observées. Les résultats de nos analyses sont présentés sous forme d'articles scientifiques, qui s'appuient sur les données de la Human Mortality Database, la Base de données sur la longévité canadienne et le Registre de la population du Québec ancien reconnues pour leur fiabilité. Les conclusions du premier article suggèrent que certains pays à faible mortalité auraient récemment franchi l'ère de la compression de la mortalité aux grands âges, ère durant laquelle les décès au sein des personnes âgées tendent à se concentrer dans un intervalle d'âge progressivement plus court. En effet, depuis le début des années 1990 au Japon, l'âge modal au décès continue d'augmenter alors que le niveau d'hétérogénéité des durées de vie au-delà de cet âge demeure inchangé. Nous assistons ainsi à un déplacement de l'ensemble des durées de vie adultes vers des âges plus élevés, sans réduction parallèle de la dispersion de la mortalité aux grands âges. En France et au Canada, les femmes affichent aussi de tels développements depuis le début des années 2000, mais le scénario de compression de la mortalité aux grands âges est toujours en cours chez les hommes. Aux États-Unis, les résultats de la dernière décennie s'avèrent inquiétants car pour plusieurs années consécutives, l'âge modal au décès, soit la durée de vie la plus commune des adultes, a diminué de manière importante chez les deux sexes. Le second article s'inscrit dans une perspective géographique plus fine et révèle que les disparités provinciales en matière de mortalité adulte au Canada entre 1930 et 2007, bien décrites à l'aide de surfaces de mortalité lissées, sont importantes et méritent d'être suivies de près. Plus spécifiquement, sur la base des trajectoires temporelles de l'âge modal au décès et de l'écart type des âges au décès situés au-delà du mode, les différentiels de mortalité aux grands âges entre provinces ont à peine diminué durant cette période, et cela, malgré la baisse notable de la mortalité dans toutes les provinces depuis le début du XXe siècle. Également, nous constatons que ce sont précisément les femmes issues de provinces de l'Ouest et du centre du pays qui semblent avoir franchi l'ère de la compression de la mortalité aux grands âges au Canada. Dans le cadre du troisième et dernier article de cette thèse, nous étudions la longévité des adultes au XVIIIe siècle et apportons un nouvel éclairage sur la durée de vie la plus commune des adultes à cette époque. À la lumière de nos résultats, l'âge le plus commun au décès parmi les adultes canadiens-français a augmenté entre 1740-1754 et 1785-1799 au Québec ancien. En effet, l'âge modal au décès est passé d'environ 73 ans à près de 76 ans chez les femmes et d'environ 70 ans à 74 ans chez les hommes. Les conditions de vie particulières de la population canadienne-française à cette époque pourraient expliquer cet accroissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons choisi de focaliser nos analyses sur les inégalités sociales de mortalité spécifiquement aux grands âges. Pour ce faire, l'utilisation de l'âge modal au décès combiné à la dispersion des décès au-delà de cet âge s'avère particulièrement adapté pour capter ces disparités puisque ces mesures ne sont pas tributaires de la mortalité prématurée. Ainsi, à partir de la distribution des âges au décès selon le niveau de défavorisation, au Québec au cours des périodes 2000-2002 et 2005-2007, nous avons déterminé l'âge le plus commun au décès et la dispersion des durées de vie au-delà de celui-ci. L'estimation de la distribution des décès selon l'âge et le niveau de défavorisation repose sur une approche non paramétrique de lissage par P-splines développée par Nadine Ouellette dans le cadre de sa thèse de doctorat. Nos résultats montrent que l'âge modal au décès ne permet pas de détecter des disparités dans la mortalité des femmes selon le niveau de défavorisation au Québec en 2000-2002 et en 2005-2007. Néanmoins, on assiste à un report de la mortalité vers des âges plus avancés alors que la compression de la mortalité semble s'être stabilisée. Pour les hommes, les inégalités sociales de mortalité sont particulièrement importantes entre le sous-groupe le plus favorisé et celui l'étant le moins. On constate un déplacement de la durée de vie la plus commune des hommes vers des âges plus élevés et ce, peu importe le niveau de défavorisation. Cependant, contrairement à leurs homologues féminins, le phénomène de compression de la mortalité semble toujours s'opérer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).