171 resultados para Équation de Pell
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.
Resumo:
L’exercice en immersion dans l'eau peut générer des réponses hémodynamiques et cardiorespiratoires différentes à celles de l’exercice sur terraine sec. Cependant, aucune étude n’a comparé ces réponses sur vélo aquatique (VA) à celles sur vélo sur terrain sec (VS) à une même puissance mécanique externe (Pext). À cet égard, le premier travail de cette thèse visait, d’abord, à trouver les équivalences de Pext lors du pédalage sur VA en immersion à la poitrine par rapport au VS au laboratoire, en considérant que cela restait non déterminé à ce jour. Une équation de mécanique des fluides fut utilisée pour calculer la force déployée pour le système de pédalage (pales, leviers, pédales) et des jambes à chaque tour de pédale. Ensuite, cette force totale a été multipliée par la vitesse de pédalage pour estimer la Pext sur VA. Ayant trouvé les équivalences de Pext sur VA et VS, nous nous sommes fixés comme objectif dans la deuxième étude de comparer les réponses hémodynamiques et cardiorespiratoires lors d'un exercice maximal progressif sur VS par rapport au VA à une même Pext. Les résultats ont montré que le VO2 (p<0.0001) et la différence artério-veineuse (C(a-v)O2) (p<0.0001) étaient diminués lors de l’exercice sur VA comparativement à celui sur VS. Parmi les variables hémodynamiques, le volume d’éjection systolique (VES) (p˂0.05) et le débit cardiaque (Qc) (p˂0.05) étaient plus élevés sur VA. En plus, on nota une diminution significative de la fréquence cardiaque (FC) (p˂0.05). Étant donné qu’à une même Pext les réponses physiologiques sont différentes sur VA par rapport à celles sur VS, nous avons effectué une troisième étude pour établir la relation entre les différentes expressions de l'intensité relative de l'exercice (% du VO2max,% de la FCmax,% du VO2 de réserve (% de VO2R) et % de la FC réserve (% FCR)). Les résultats ont démontré que la relation % FCR vs % VO2R était la plus corrélée (régression linéaire) et la plus proche de la ligne d’identité. Ces résultats pourraient aider à mieux prescrire et contrôler l’intensité de l'exercice sur VA pour des sujets sains. Finalement, une dernière étude comparant la réactivation parasympathique après un exercice maximal incrémental effectué sur VA et VS en immersion au niveau de la poitrine a montré que la réactivation parasympathique à court terme était plus prédominante sur VA (i,e. t, delta 10 à delta 60 et T30, p<0.05). Cela suggérait, qu’après un exercice maximal sur VA, la réactivation parasympathique à court terme était accélérée par rapport à celle après l'effort maximal sur VS chez de jeunes sujets sains. En conclusion, nous proposons une méthode de calcul de la puissance mécanique externe sur VA en fonction de la cadence de pédalage. Nous avons démontré que pendant l’exercice sur VA les réponses hémodynamiques et cardiorespiratoires sont différentes de celles sur VS à une même Pext et nous proposons des équations pour le calcul du VO2 dans l’eau ainsi qu’une méthode pour la prescription et le contrôle de l’exercice sur VA. Finalement, la réactivation parasympathique à court terme s’est trouvée accélérée après un effort maximal incrémental sur VA comparativement à celle sur VS.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
Dans cette thèse, nous étudions les fonctions propres de l'opérateur de Laplace-Beltrami - ou simplement laplacien - sur une surface fermée, c'est-à-dire une variété riemannienne lisse, compacte et sans bord de dimension 2. Ces fonctions propres satisfont l'équation $\Delta_g \phi_\lambda + \lambda \phi_\lambda = 0$ et les valeurs propres forment une suite infinie. L'ensemble nodal d'une fonction propre du laplacien est celui de ses zéros et est d'intérêt depuis les expériences de plaques vibrantes de Chladni qui remontent au début du 19ème siècle et, plus récemment, dans le contexte de la mécanique quantique. La taille de cet ensemble nodal a été largement étudiée ces dernières années, notamment par Donnelly et Fefferman, Colding et Minicozzi, Hezari et Sogge, Mangoubi ainsi que Sogge et Zelditch. L'étude de la croissance de fonctions propres n'est pas en reste, avec entre autres les récents travaux de Donnelly et Fefferman, Sogge, Toth et Zelditch, pour ne nommer que ceux-là. Notre thèse s'inscrit dans la foulée du travail de Nazarov, Polterovich et Sodin et relie les propriétés de croissance des fonctions propres avec la taille de leur ensemble nodal dans l'asymptotique $\lambda \nearrow \infty$. Pour ce faire, nous considérons d'abord les exposants de croissance, qui mesurent la croissance locale de fonctions propres et qui sont obtenus à partir de la norme uniforme de celles-ci. Nous construisons ensuite la croissance locale moyenne d'une fonction propre en calculant la moyenne sur toute la surface de ces exposants de croissance, définis sur de petits disques de rayon comparable à la longueur d'onde. Nous montrons alors que la taille de l'ensemble nodal est contrôlée par le produit de cette croissance locale moyenne et de la fréquence $\sqrt{\lambda}$. Ce résultat permet une reformulation centrée sur les fonctions propres de la célèbre conjecture de Yau, qui prévoit que la mesure de l'ensemble nodal croît au rythme de la fréquence. Notre travail renforce également l'intuition répandue selon laquelle une fonction propre se comporte comme un polynôme de degré $\sqrt{\lambda}$. Nous généralisons ensuite nos résultats pour des exposants de croissance construits à partir de normes $L^q$. Nous sommes également amenés à étudier les fonctions appartenant au noyau d'opérateurs de Schrödinger avec petit potentiel dans le plan. Pour de telles fonctions, nous obtenons deux résultats qui relient croissance et taille de l'ensemble nodal.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
Il est connu qu’une équation différentielle linéaire, x^(k+1)Y' = A(x)Y, au voisinage d’un point singulier irrégulier non-résonant est uniquement déterminée (à isomorphisme analytique près) par : (1) sa forme normale formelle, (2) sa collection de matrices de Stokes. La définition des matrices de Stokes fait appel à un ordre sur les parties réelles des valeurs propres du système, ordre qui peut être perturbé par une rotation en x. Dans ce mémoire, nous avons établi le caractère intrinsèque de cette relation : nous avons donc établi comment la nouvelle collection de matrices de Stokes obtenue après une rotation en x qui change l’ordre des parties réelles des valeurs propres dépend de la collection initiale. Pour ce faire, nous donnons un chapitre de préliminaires généraux sur la forme normale des équations différentielles ordinaires puis un chapitre sur le phénomène de Stokes pour les équations différentielles linéaires. Le troisième chapitre contient nos résultats.
Resumo:
Un algorithme permettant de discrétiser les équations aux dérivées partielles (EDP) tout en préservant leurs symétries de Lie est élaboré. Ceci est rendu possible grâce à l'utilisation de dérivées partielles discrètes se transformant comme les dérivées partielles continues sous l'action de groupes de Lie locaux. Dans les applications, beaucoup d'EDP sont invariantes sous l'action de transformations ponctuelles de Lie de dimension infinie qui font partie de ce que l'on désigne comme des pseudo-groupes de Lie. Afin d'étendre la méthode de discrétisation préservant les symétries à ces équations, une discrétisation des pseudo-groupes est proposée. Cette discrétisation a pour effet de transformer les symétries ponctuelles en symétries généralisées dans l'espace discret. Des schémas invariants sont ensuite créés pour un certain nombre d'EDP. Dans tous les cas, des tests numériques montrent que les schémas invariants approximent mieux leur équivalent continu que les différences finies standard.
Resumo:
La douleur chronique non cancéreuse (DCNC) est un phénomène complexe et des interventions multimodales qui abordent à la fois ses dimensions biologiques et psychosociales sont considérées comme l’approche optimale pour traiter ce type de désordre. La prescription d'opioïdes pour la DCNC a augmenté d’une façon fulgurante au cours des deux dernières décennies, mais les preuves supportant l'efficacité à long terme de ce type de médicament en termes de réduction de la sévérité de la douleur et d’amélioration de la qualité de vie des patients souffrant de DCNC sont manquantes. L'objectif de cette étude était d'investiguer dans un contexte de vraie vie l'efficacité à long terme des opioïdes pour réduire l’intensité et l’impact de la douleur et améliorer la qualité de vie reliée à la santé des patients souffrant de DCNC sur une période d’une année. Méthodes: Les participants à cette étude étaient 1490 patients (âge moyen = 52,37 (écart-type = 13,9); femmes = 60,9%) enrôlés dans le Registre Québec Douleur entre octobre 2008 et Avril 2011 et qui ont complété une série de questionnaires avant d'initier un traitement dans un centre multidisciplinaire tertiaire de gestion de la douleur ainsi qu’à 6 et 12 mois plus tard. Selon leur profil d'utilisation d'opioïdes (PUO), les patients ont été classés en 1) non-utilisateurs, 2) utilisateurs non persistants, et 3) utilisateurs persistants. Les données ont été analysées à l'aide du modèle d'équation d'estimation généralisée. Résultats: Chez les utilisateurs d’opioïdes, 52% en ont cessé la prise à un moment ou à un autre pendant la période de suivi. Après ajustement pour l'âge et le sexe, le PUO a prédit d’une manière significative l’intensité de la douleur ressentie en moyenne sur des périodes de 7 jours (p <0,001) ainsi que la qualité de vie physique (pQDV) dans le temps (p <0,001). Comparés aux non-utilisateurs, les utilisateurs persistants avaient des niveaux significativement plus élevés d'intensité de douleur et une moins bonne pQDV. Une interaction significative a été trouvée entre le PUO et le temps dans la prédiction de l’intensité de douleur ressentie à son maximum (p = 0,001), les utilisateurs persistants sont ceux rapportant les scores les plus élevés à travers le temps. Une interaction significative a aussi été observée entre le PUO et le type de douleur dans la prédiction de l'impact de la douleur dans diverses sphères de la vie quotidienne (p = 0,048) et de la mQDV (p = 0,042). Indépendamment du type de douleur, les utilisateurs persistants ont rapporté des scores plus élevés d'interférence de douleur ainsi qu’une moins bonne mQDV par rapport aux non-utilisateurs. Cependant, la magnitude de ces effets était de petite taille (d de Cohen <0,5), une observation qui remet en question la puissance et la signification clinique des différences observées entre ces groupes. Conclusion: Nos résultats contribuent à maintenir les doutes sur l'efficacité d’une thérapie à long terme à base d’opioïdes et remettent ainsi en question le rôle que peut jouer ce type de médicament dans l'arsenal thérapeutique pour la gestion de la DCNC.
Resumo:
Seleccionado en la convocatoria: Ayudas a la innovaci??n e investigaci??n educativa en centros docentes de niveles no universitarios, Gobierno de Arag??n 2010-11
Resumo:
Mitjançant les tècniques de visió per computador aquest projecte pretén desenvolupar una aplicació capaç de segmentar la pell, detectar nevus (pigues i altres taques) i poder comparar imatges de pacients amb risc de contreure melanoma preses en moments diferents. Aquest projecte pretén oferir diferents eines informàtiques als dermatòlegs per a propòsits relacionats amb la investigació. L’ objectiu principal d’ aquest projecte és desenvolupar un sistema informàtic que proporcioni als dermatòlegs agilitat a l’hora de gestionar les dades dels pacients amb les sevesimatges corresponents, ajudar-los en la realització de deteccions dels nevus d’aquestes imatges, i ajudar-los en la comparació d’exploracions (amb les deteccions realitzades)de diferents èpoques d’un mateix pacient
Resumo:
Resumen tomado de la publicaci??n
Resumo:
Introducción: La Preeclampsia ocurre entre el 2-7% de los embarazos. Previos estudios han sugerido la asociación entre los niveles alterados de PAPP-A y la β-hCG libre con el desarrollo de Preeclampsia (PE) y/o Bajo Peso al Nacer (BPN). Metodología: El diseño del estudio es de Prueba Diagnóstica con enfoque de casos y controles. Las mediciones séricas de PAPP-A y la β-hCG libre, fueron realizadas entre la semana 11-13.6 días durante 2 años. Resultados: La cohorte incluyó 399 pacientes, la incidencia de PE fue de 2,26% y de BPN fue de 14.54%. El punto de corte del percentil 10 fue MoM PAPP-A: 0,368293 y MoM β-hCG libre: 0,412268; la especificidad en PE leve fue de 90,5 y para BPN de 90. Los MoM de la β-hCG libre, la edad y el peso materno se comportan como factores de riesgo, mientras que mayores valores de MoM de la PAPP-A y mayor número de partos factores de protección. Para el BPEG severo la edad materna y la paridad se comportan como factores de riesgo, mientras que un aumento promedio de los valores de los MoM de la PAPP-A y la β-hCG libre, como factores de protección en el desarrollo de BPEG Severo. Conclusiones: Existe una relación significativa entre los valores alterados de PAPP-A y de β-hCG libre, valorados a la semana 11 a 13 con la incidencia de Preeclampsia y de Bajo Peso al nacer en fetos cromosómicamente normales, mostrando unos niveles significativamente más bajos a medida que aumentaba la severidad de la enfermedad.
Resumo:
This work presents different aspects that have been related to the aptitude to forgive, emphasizing its importance for the psychotherapeutic practice in order to promote an increase of such capacity. Existing empirical evidence tends to relate forgiveness to emotional, physical and psychological well-being of the persons, and shows that the way of providing sense to the experiences influences the process of forgiveness. An alternative to increase the aptitude to forgive is proposed and results of an experimental study with 60 patients demonstrate the psychotherapeutic effects of stimulating positive connotation in the increase of forgiveness. The independent variable was the type of psychotherapeutic approach applied and the dependant variables were measured with the Aptitude to Forgive Scale (CAPER) that evaluates the general predisposition of a subject to forgive, across four independent constructs: a) Self, b) Others, c) Situation, and d) Beliefs.
Resumo:
El WACC o Coste Medio Ponderado de Capital es la tasa a la que se deben descontar los flujos para evaluar un proyecto o empresa. Para calcular esta tasa es necesario determinar el costo de la deuda y el costo de los recursos propios de la compañía; el costo de la deuda es la tasa actual del mercado que la empresa está pagando por su deuda, sin embargo el costo de los recursos propios podría ser difícil y más complejo de estimar ya que no existe un costo explícito. En este trabajo se presenta un panorama de las teorías propuestas a lo largo de la historia para calcular el costo de los recursos propios. Como caso particular, se estimará el costo de los recursos propios sin apalancamiento financiero de seis empresas francesas que no cotizan en bolsa y pertenecientes al sector de Servicios a la Persona (SAP). Para lograr lo anterior, se utilizará el Proceso de Análisis Jerárquico (AHP) y el Modelo de Valoración del Precio de los Activos Financieros (CAPM) con base en lo presentado por Martha Pachón (2013) en “Modelo alternativo para calcular el costo de los recursos propios”.