345 resultados para Mathématiques financières
Resumo:
Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.
Resumo:
Cette thèse traite de deux thèmes principaux. Le premier concerne l'étude des empilements apolloniens généralisés de cercles et de sphères. Généralisations des classiques empilements apolloniens, dont l'étude remonte à la Grèce antique, ces objets s'imposent comme particulièrement attractifs en théorie des nombres. Dans cette thèse sera étudié l'ensemble des courbures (les inverses des rayons) des cercles ou sphères de tels empilements. Sous de bonnes conditions, ces courbures s'avèrent être toutes entières. Nous montrerons qu'elles vérifient un principe local-global partiel, nous compterons le nombre de cercles de courbures plus petites qu'une quantité donnée et nous nous intéresserons également à l'étude des courbures premières. Le second thème a trait à la distribution angulaire des idéaux (ou plutôt ici des nombres idéaux) des corps de nombres quadratiques imaginaires (que l'on peut voir comme la distribution des points à coordonnées entières sur des ellipses). Nous montrerons que la discrépance de l'ensemble des angles des nombres idéaux entiers de norme donnée est faible et nous nous intéresserons également au problème des écarts bornés entre les premiers d'extensions quadratiques imaginaires dans des secteurs.
Resumo:
Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.
Resumo:
La présente recherche décrit et examine la problématique posée par le trafic d’organes, de tissus et de cellules d’origine humaine, ainsi que les modes de régulation envisagés au niveau mondial pour lutter contre ce trafic, appréhendés sous l’angle de l’analyse de plusieurs conventions et protocoles internationaux et de leurs recommandations. Nous avons sélectionné, analysé et comparé les discours les plus significatifs de quatre types d’organisations internationales, les associations médicales internationales, l’Organisation des Nations Unies, l’Organisation mondiale de la Santé et le Conseil de l’Europe. Nous avons cherché à connaître leur point de vue sur la commercialisation des organes humains et plus spécifiquement sur le trafic des organes humains, à travers 17 textes que ces acteurs ont produit de 1987 jusqu’en 2014. L’analyse de ces discours experts révèle que la perspective éthique domine l’ensemble des documents. Elle met en évidence les convergences des discours sur la nécessité d’adopter une double stratégie fondée à la fois sur la prévention et la criminalisation du trafic d’organes ainsi que sur l’analyse du lien existant entre la pénurie croissante d’organes et l’avènement du trafic d’organes. Les discours sur la régulation et la criminalisation ont évolué vers un degré de précision et de complexification de la notion du trafic d’organes, une notion qui reste encore peu consensuelle dans sa définition. Quant aux stratégies, il faut observer que l’évolution des discours est assez significative et inégale à ce chapitre. C’est surtout dans les discours experts produits à partir des années 2000 que nous retrouvons des propositions plus concrètes sur les stratégies. La régulation des transactions financières, notamment par les balises de pratiques médicales et celles des intermédiaires, ainsi que les prescriptions entourant le consentement forment les deux types de stratégies les plus souvent mises de l’avant par les experts, toutes organisations confondues. Au fil de l’analyse des textes sur la régulation il est possible d’entrevoir des nuances et des brèches dans le principe d’interdiction de la commercialisation des organes humains, plus précisément en ce qui concerne les types d’organes, de tissus ou de cellules.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Resumo:
Un rêve, plus ou moins explicite, hante nos esprits depuis plusieurs millénaires. On le retrouve ci et là dans les listes égyptiennes, dans les catalogues aristotéliciens, dans les règles mnémotechniques des néoplatoniciens florentins de la Renaissance, dans les constructions mathématiques de Leibniz, dans les affirmations des grands noms du Web : le monde est constitué d’une masse énorme d’informations, dont la connaissance et l’exploitation permettrait la maîtrise quasi-totale. Il serait alors possible de tout savoir, de tout prévoir, de tout faire. Mais deux limites, proprement humaines, empêchent la détention et l’exploitation de cette globalité d’informations : l’accessibilité et la calculabilité. [Introduction]
Resumo:
Parallèlement à l’histoire du développement d’Internet et du web, une autre histoire est fondamentale pour comprendre les enjeux de l’édition numérique : celle des humanités numériques. Il y a encore quelques décennies, on pouvait penser que les ordinateurs et les technologies numériques étaient destinés uniquement aux sciences dures, les sciences exactes dont le calcul et les mathématiques sont les principaux outils. Cette idée est manifestement fausse aujourd’hui : le numérique habite l’ensemble de nos vies et touche aussi, et surtout, à nos activités purement « humanistes », ou même « humaines ». Ce chapitre a pour ambition de retracer l’histoire du rapport complexe entre les sciences humaines et l’informatique qui a mené des premières expériences de recherche assistée par ordinateur, dans le domaine des sciences humaines (humanities computing), aux actuelles digital humanities, ou à un possible humanisme numérique.
Resumo:
En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.
Resumo:
Ce texte examine la méthode axiomatique durant la période de l’histoire des mathématiques correspondant à la crise des fondements. Il a pour objectif de montrer que la méthode axiomatique changea, mais aussi de comprendre la nature de ces changements. À cette fin, les conceptions de Frege, Hilbert et Noether sont analysées.
Resumo:
Dans Systems of logic based on ordinals (1939), Turing explore les possibilités de minimiser les effets du théorème d’incomplétude pour l’arithmétique par le biais d’une logique ordinale. Nous rendons ici compte de cette recherche méconnue menée par Turing sur les fondements des mathématiques en replaçant ses apports dans le contexte actuel de la théorie de la calculabilité.
Resumo:
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
Au Niger, le taux de mortalité maternelle est estimé à 535 décès pour 100 000 naissances vivantes (INS, 2013) et la probabilité pour un nouveau-né de mourir avant l’âge d’un mois est de 33 ‰. Depuis 2006, le Niger a mis en place une politique de gratuité des soins pour les femmes enceintes et les enfants de 0 à 5 ans, ce qui a contribué à une amélioration significative de la fréquentation des centres de santé. En mars 2012, un processus délibératif fut organisé pendant une conférence de trois jours pour échanger sur les acquis, limites et perspectives de cette nouvelle politique avec 160 participants dont des chercheurs, des humanitaires, des décideurs politiques et des intervenants sur le terrain. L’objectif de cette recherche est de comprendre les effets de cette conférence ainsi que d’explorer les activités du comité de suivi de la feuille de route. La recherche a été réalisée durant deux mois en été 2014 à Niamey et à N’guiguimi. Elle a reposé sur l’utilisation du cadre conceptuel de Boyko et al., (2012) qui permet de décrire les principales caractéristiques et les effets attendus des dialogues délibératifs et comprendre comment les dialogues délibératifs peuvent contribuer à l’élaboration de politiques sur la base de données probantes. Nous avons mis un accent particulier sur les trois formes d’utilisation des connaissances présentées par Dagenais et al., (2013) : instrumentale, conceptuelle et persuasive. Des entretiens semi-directifs ont été effectués avec 22 acteurs impliqués dans la mise en oeuvre des recommandations. Ils ont été enregistrés, retranscrits intégralement et traités avec le logiciel QDA Miner. Les résultats de l’analyse des discours recueillis révèlent une utilisation instrumentale des recommandations et plus visible chez les humanitaires que les décideurs et les acteurs de la société civile. Il ressort aussi de cette analyse une utilisation conceptuelle et persuasive des recommandations à un degré plus faible parmi tous les acteurs. Le comité de suivi de la feuille route de la conférence n’a pratiquement pas fonctionné, par conséquent, le processus n’a pas eu l’impact souhaité. Les principales raisons de cet échec sont liées au contexte de mise en oeuvre des recommandations (arrestation de plusieurs agents du ministère de la Santé publique qui sont des membres clés du comité de suivi à cause du détournement des fonds GAVI, manque de volonté technique et politique) et/ou aux conditions financières (absence de primes pour les membres du comité et de budget de fonctionnement.). Les iv résultats obtenus ont permis de comprendre les énormes défis (contextuels, financiers notamment) qui restent à relever en matière de transfert de connaissance dans le secteur de santé publique au Niger. En ce qui concerne la suite de la conférence, il faudrait accélérer la redynamisation du comité de suivi en le dotant d’un fonds de fonctionnement et en créant une agence autonome de gestion de la gratuité des soins; et renforcer le soutien politique autour de l’Initiative Santé Solidarité Sahel.
Resumo:
Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.
Resumo:
La coexistence des services de francisation au Québec pour les personnes immigrantes adultes a fait l'objet de divers enjeux liés notamment au passage des apprenants d'un lieu de formation à un autre (Québec, MICC, 2011a). Dans le but de répondre à ces enjeux et d’harmoniser l'offre de services gouvernementaux en matière de francisation des adultes, le ministère de l'Immigration et des Communautés culturelles (MICC) a élaboré en collaboration avec le ministère de l'Éducation, du Loisir et du Sport (MELS), une innovation pédagogique, soit un référentiel commun québécois composé de deux instruments : l’Échelle québécoise des niveaux de compétence en français des personnes immigrantes adultes et le Programme-cadre de français pour les personnes immigrantes adultes au Québec. Le but de notre étude était de mieux comprendre l'implantation du référentiel commun québécois, de faire état des représentations du personnel enseignant en francisation vis-à-vis de cette innovation pédagogique et d’identifier les principaux facteurs qui structurent son implantation. Pour atteindre ces objectifs de recherche, nous avons mené une étude qualitative dans laquelle nous nous sommes appuyée sur le modèle d'implantation de Vince-Whitman (2009) qui identifie douze facteurs facilitant l’implantation d’une politique et d’une pratique. Nous avons accédé aux représentations de douze enseignantes et enseignants en francisation qui œuvrent au MICC et au MELS lors d’entretiens de groupe en leur permettant de s'exprimer sur leurs pratiques pédagogiques et sur leurs impressions du référentiel commun québécois. À l’aide du logiciel QSF NVivo 8, nous avons analysé le contenu des propos de nos participants de recherche. Nos résultats démontrent que le manque appréhendé de ressources – humaines, matérielles et financières, et un manque de temps, de formation et de collaboration professionnelle pourraient représenter des obstacles et nuire à une éventuelle implantation du référentiel commun québécois. À la lumière de ces résultats, nous proposons un cadre de référence composé de sept facteurs d’implantation d’une innovation pédagogique afin de mieux rendre compte d’une réalité spécifique et contemporaine, celle de l'implantation du référentiel commun québécois pour la francisation des immigrants adultes scolarisés. Les écrits scientifiques et nos résultats de recherche démontrent que de diverses formes de soutien, principalement du matériel pédagogique approprié et suffisant, peuvent constituer un facteur-clé dans la réussite de l’implantation d’une innovation pédagogique.