874 resultados para formulas
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
Dans ce travail, nous exploitons des propriétés déjà connues pour les systèmes de poids des représentations afin de les définir pour les orbites des groupes de Weyl des algèbres de Lie simples, traitées individuellement, et nous étendons certaines de ces propriétés aux orbites des groupes de Coxeter non cristallographiques. D'abord, nous considérons les points d'une orbite d'un groupe de Coxeter fini G comme les sommets d'un polytope (G-polytope) centré à l'origine d'un espace euclidien réel à n dimensions. Nous introduisons les produits et les puissances symétrisées de G-polytopes et nous en décrivons la décomposition en des sommes de G-polytopes. Plusieurs invariants des G-polytopes sont présentés. Ensuite, les orbites des groupes de Weyl des algèbres de Lie simples de tous types sont réduites en l'union d'orbites des groupes de Weyl des sous-algèbres réductives maximales de l'algèbre. Nous listons les matrices qui transforment les points des orbites de l'algèbre en des points des orbites des sous-algèbres pour tous les cas n<=8 ainsi que pour plusieurs séries infinies des paires d'algèbre-sous-algèbre. De nombreux exemples de règles de branchement sont présentés. Finalement, nous fournissons une nouvelle description, uniforme et complète, des centralisateurs des sous-groupes réguliers maximaux des groupes de Lie simples de tous types et de tous rangs. Nous présentons des formules explicites pour l'action de tels centralisateurs sur les représentations irréductibles des algèbres de Lie simples et montrons qu'elles peuvent être utilisées dans le calcul des règles de branchement impliquant ces sous-algèbres.
Resumo:
Nous considérons des processus de diffusion, définis par des équations différentielles stochastiques, et puis nous nous intéressons à des problèmes de premier passage pour les chaînes de Markov en temps discret correspon- dant à ces processus de diffusion. Comme il est connu dans la littérature, ces chaînes convergent en loi vers la solution des équations différentielles stochas- tiques considérées. Notre contribution consiste à trouver des formules expli- cites pour la probabilité de premier passage et la durée de la partie pour ces chaînes de Markov à temps discret. Nous montrons aussi que les résultats ob- tenus convergent selon la métrique euclidienne (i.e topologie euclidienne) vers les quantités correspondantes pour les processus de diffusion. En dernier lieu, nous étudions un problème de commande optimale pour des chaînes de Markov en temps discret. L’objectif est de trouver la valeur qui mi- nimise l’espérance mathématique d’une certaine fonction de coût. Contraire- ment au cas continu, il n’existe pas de formule explicite pour cette valeur op- timale dans le cas discret. Ainsi, nous avons étudié dans cette thèse quelques cas particuliers pour lesquels nous avons trouvé cette valeur optimale.
Resumo:
Introduction: The objective of this experimental research was to evaluate the slot’s vertical dimension and profile of four different 0.018″ self-ligating brackets and to identify the level of tolerance accepted by manufacturers during the fabrication process. It was then possible to calculate and compare the torque play of those brackets using the measured values and the nominal values. Material and Methods: Twenty-five 0.018″ self-ligating brackets of upper left central incisors from the following manufacturers, Speed® (Strite Industries, Cambridge, Ontario, Canada), InOvationR® (GAC, Bohemia, NY, USA), CarriereLX® (Ortho Organizers, Carlsbad, CA, USA) and SmartClip® (3M Unitek, Monrovia, CA, USA), were evaluated using electron microscopy with 150X images. The height of each bracket was measured at every 100 microns of depth from the lingual wall at five different levels. A Student T test was then used to compare our results with the manufacturer’s stated value of 0.018″. To determine if there was a significant difference between the four manufacturers, analysis of variance (ANOVA) was performed at the significance level of p<0.05. The torque play was then calculated using geometrical formulas. Results: On average, Speed brackets were oversized by 2.7%[MV 0.0185″ (SD:0.002)], InOvationR by 3.7% [MV 0.0187″ (SD:0.002)], CarriereLX by 3.2% [MV 0.0186″ (SD:0.002)] and SmartClipSL by 5.0% [MV 0.0189″ (SD:0.002)]. The height of all brackets was significantly higher than the nominal value of 0.018″ (p<0.001). The slot of SmartClip brackets was significantly larger than those of the other three manufacturers (p<0.001). None of the brackets studied had parallel gingival and occlusal walls; some were convergent and others divergent. These variations can induce a torque play up to 4.5 degrees with a 0.017″x0.025″ wire and 8.0 degrees with a 0.016″x0.022″ wire. Conclusion: All studied brackets were oversized. None of the brackets studied had parallel gingival and occlusal walls and there was no standard between manufacturers for the geometry of their slots. These variations can cause a slight increase of the torque play between the wire and the bracket compared with the nominal value.
Resumo:
Les premiers comptes rendus de l’histoire du cinéma ont souvent considéré les premiers dessins animés, ou vues de dessins animés, comme des productions différentes des films en prise de vue réelle. Les dessins animés tirent en effet leurs sources d’inspiration d’une gamme relativement différente d’influences, dont les plus importantes sont la lanterne magique, les jouets optiques, la féérie, les récits en images et les comics. Le dessin animé n’en demeure pas moins fondamentalement cinématographique. Les vues de dessins animés de la décennie 1900 ne se distinguent ainsi guère des scènes à trucs sur le plan de la technique et du style. D’abord le fait de pionniers issus de l’illustration comique et du croquis vivant comme Émile Cohl, James Stuart Blackton et Winsor McCay, le dessin animé s’industrialise au cours de la décennie 1910 sous l’impulsion de créateurs venant du monde des comics, dont John Randolph Bray, Earl Hurd, Paul Terry et Max Fleisher. Le processus d’institutionnalisation par lequel le dessin animé en viendra à être considéré comme une catégorie de film à part entière dépend en grande partie de cette industrialisation. Les studios de dessins animés développent des techniques et pratiques managériales spécifiquement dédiées à la production à grande échelle de films d’animation. Le dessin animé se crée ainsi sa propre niche au sein d’une industrie cinématographique dont il dépend toutefois toujours entièrement. Ce phénomène d’individuation repose sur des formules narratives et des personnages récurrents conçus à partir de modèles issus des comics des années 1910.
Resumo:
Cette thèse s'intéresse à l'étude des propriétés et applications de quatre familles des fonctions spéciales associées aux groupes de Weyl et dénotées $C$, $S$, $S^s$ et $S^l$. Ces fonctions peuvent être vues comme des généralisations des polynômes de Tchebyshev. Elles sont en lien avec des polynômes orthogonaux à plusieurs variables associés aux algèbres de Lie simples, par exemple les polynômes de Jacobi et de Macdonald. Elles ont plusieurs propriétés remarquables, dont l'orthogonalité continue et discrète. En particulier, il est prouvé dans la présente thèse que les fonctions $S^s$ et $S^l$ caractérisées par certains paramètres sont mutuellement orthogonales par rapport à une mesure discrète. Leur orthogonalité discrète permet de déduire deux types de transformées discrètes analogues aux transformées de Fourier pour chaque algèbre de Lie simple avec racines des longueurs différentes. Comme les polynômes de Tchebyshev, ces quatre familles des fonctions ont des applications en analyse numérique. On obtient dans cette thèse quelques formules de <
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Cette thèse concerne le problème de trouver une notion naturelle de «courbure scalaire» en géométrie kählérienne généralisée. L'approche utilisée consiste à calculer l'application moment pour l'action du groupe des difféomorphismes hamiltoniens sur l'espace des structures kählériennes généralisées de type symplectique. En effet, il est bien connu que l'application moment pour la restriction de cette action aux structures kählériennes s'identifie à la courbure scalaire riemannienne. On se limite à une certaine classe de structure kählériennes généralisées sur les variétés toriques notée $DGK_{\omega}^{\mathbb{T}}(M)$ que l'on reconnaît comme étant classifiées par la donnée d'une matrice antisymétrique $C$ et d'une fonction réelle strictement convexe $\tau$ (ayant un comportement adéquat au voisinage de la frontière du polytope moment). Ce point de vue rend évident le fait que toute structure kählérienne torique peut être déformée en un élément non kählérien de $DGK_{\omega}^{\mathbb{T}}(M)$, et on note que cette déformation à lieu le long d'une des classes que R. Goto a démontré comme étant libre d'obstruction. On identifie des conditions suffisantes sur une paire $(\tau,C)$ pour qu'elle donne lieu à un élément de $DGK_{\omega}^{\mathbb{T}}(M)$ et on montre qu'en dimension 4, ces conditions sont également nécessaires. Suivant l'adage «l'application moment est la courbure» mentionné ci-haut, des formules pour des notions de «courbure scalaire hermitienne généralisée» et de «courbure scalaire riemannienne généralisée» (en dimension 4) sont obtenues en termes de la fonction $\tau$. Enfin, une expression de la courbure scalaire riemannienne généralisée en termes de la structure bihermitienne sous-jacente est dégagée en dimension 4. Lorsque comparée avec le résultat des physiciens Coimbra et al., notre formule suggère un choix canonique pour le dilaton de leur théorie.
Resumo:
L’adaptation culturelle de programmes et de services postsecondaires peut-elle contribuer à la construction identitaire des étudiants de Premières Nations? L’enracinement identitaire peut-il à son tour favoriser la persévérance et la réussite scolaires? À travers les concepts de sécurité culturelle et d’enracinement identitaire, je démontrerai que la consécration d’espaces physiques et idéologiques à l’intérieur du système scolaire postsecondaire contribue à la rétention et à la réussite de persévérants de Premières Nations. Pour ce faire, je m’appuierai sur les conclusions d’une enquête, menée entre 2013 et 2015 auprès d’une centaine d’étudiants autochtones adultes et une quinzaine de professionnels du milieu. Cette recherche a été rendue possible grâce à la collaboration de différentes instances éducatives incluant notamment le volet Jeunes autochtones du Projet SEUR de l’Université de Montréal, l’Institution Kiuna, le Conseil en éducation des Premières Nations (CEPN), l’Aboriginal Resource Center du Collège John-Abbott, la First Peoples’ House et le Indigenous Student Alliance (ISA) de l’Université McGill, l'Aboriginal Student Resource Center de l’Université Concordia et le Centre de développement de la formation et de la main-d'oeuvre (CDFM) huron-wendat. À l’intérieur de ce mémoire, deux formules issues du système d'éducation québécois seront successivement analysées: 1.L’adaptation culturelle de services au sein de l’institution postsecondaire allochtone et 2. L’adaptation de programmes et de services à l’intérieur d’une institution affiliée par et pour les Premières Nations. Cette deuxième initiative sera examinée à travers une étude de cas de l’Institut collégial Kiuna et de son programme novateur de Sciences humaines - profil Premières Nations (300.b0) à la lumière des expériences du Collège Manitou de La Macaza (1973-1976) et des Tribal Colleges and Universities américains (TCU).
Resumo:
The arrow shaped microstrip antenna, which produces dual frequency dual polarisation operation with considera-ble size reduction compared to conventional patches has been reported [I]. These antennas provide greater area reduction and improved gain compared to drum shaped patches [2]. Prediction of the resonance frequency of drum shaped patches [3] and circular patches for broadband operation [4] are available in the literature. In this Letter, we propose empirical formulas for calculating the resonance frequencies of the arrow shaped microstrip antenna. These antennas can be employed for obtaining dual frequency with the same polarisation, bandwidth enhancement, circular polarisation etc. by varying its different parameters or by introducing slots. The proposed design equations provide an easier and simple way of predicting the resonant frequencies of these patches.
Resumo:
The mathematical formulation of empirically developed formulas Jirr the calculation of the resonant frequency of a thick-substrate (h s 0.08151 A,,) microstrip antenna has been analyzed. With the use qt' tunnel-based artificial neural networks (ANNs), the resonant frequency of antennas with h satisfying the thick-substrate condition are calculated and compared with the existing experimental results and also with the simulation results obtained with the use of an IE3D software package. The artificial neural network results are in very good agreement with the experimental results
Resumo:
The elastic moduli of vortex crystals in anisotropic superconductors are frequently involved in the investigation of their phase diagram and transport properties. We provide a detailed analysis of the harmonic eigenvalues (normal modes) of the vortex lattice for general values of the magnetic field strength, going beyond the elastic continuum regime. The detailed behavior of these wave-vector-dependent eigenvalues within the Brillouin zone (BZ), is compared with several frequently used approximations that we also recalculate. Throughout the BZ, transverse modes are less costly than their longitudinal counterparts, and there is an angular dependence which becomes more marked close to the zone boundary. Based on these results, we propose an analytic correction to the nonlocal continuum formulas which fits quite well the numerical behavior of the eigenvalues in the London regime. We use this approximate expression to calculate thermal fluctuations and the full melting line (according to Lindeman's criterion) for various values of the anisotropy parameter.
Resumo:
Electron transport in a self-consistent potential along a ballistic two-terminal conductor has been investigated. We have derived general formulas which describe the nonlinear current-voltage characteristics, differential conductance, and low-frequency current and voltage noise assuming an arbitrary distribution function and correlation properties of injected electrons. The analytical results have been obtained for a wide range of biases: from equilibrium to high values beyond the linear-response regime. The particular case of a three-dimensional Fermi-Dirac injection has been analyzed. We show that the Coulomb correlations are manifested in the negative excess voltage noise, i.e., the voltage fluctuations under high-field transport conditions can be less than in equilibrium.