995 resultados para Processus de Poisson généralisé
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Rapport de synthèse Cette thèse consiste en trois essais sur les stratégies optimales de dividendes. Chaque essai correspond à un chapitre. Les deux premiers essais ont été écrits en collaboration avec les Professeurs Hans Ulrich Gerber et Elias S. W. Shiu et ils ont été publiés; voir Gerber et al. (2006b) ainsi que Gerber et al. (2008). Le troisième essai a été écrit en collaboration avec le Professeur Hans Ulrich Gerber. Le problème des stratégies optimales de dividendes remonte à de Finetti (1957). Il se pose comme suit: considérant le surplus d'une société, déterminer la stratégie optimale de distribution des dividendes. Le critère utilisé consiste à maximiser la somme des dividendes escomptés versés aux actionnaires jusqu'à la ruine2 de la société. Depuis de Finetti (1957), le problème a pris plusieurs formes et a été résolu pour différents modèles. Dans le modèle classique de théorie de la ruine, le problème a été résolu par Gerber (1969) et plus récemment, en utilisant une autre approche, par Azcue and Muler (2005) ou Schmidli (2008). Dans le modèle classique, il y a un flux continu et constant d'entrées d'argent. Quant aux sorties d'argent, elles sont aléatoires. Elles suivent un processus à sauts, à savoir un processus de Poisson composé. Un exemple qui correspond bien à un tel modèle est la valeur du surplus d'une compagnie d'assurance pour lequel les entrées et les sorties sont respectivement les primes et les sinistres. Le premier graphique de la Figure 1 en illustre un exemple. Dans cette thèse, seules les stratégies de barrière sont considérées, c'est-à-dire quand le surplus dépasse le niveau b de la barrière, l'excédent est distribué aux actionnaires comme dividendes. Le deuxième graphique de la Figure 1 montre le même exemple du surplus quand une barrière de niveau b est introduite, et le troisième graphique de cette figure montre, quand à lui, les dividendes cumulés. Chapitre l: "Maximizing dividends without bankruptcy" Dans ce premier essai, les barrières optimales sont calculées pour différentes distributions du montant des sinistres selon deux critères: I) La barrière optimale est calculée en utilisant le critère usuel qui consiste à maximiser l'espérance des dividendes escomptés jusqu'à la ruine. II) La barrière optimale est calculée en utilisant le second critère qui consiste, quant à lui, à maximiser l'espérance de la différence entre les dividendes escomptés jusqu'à la ruine et le déficit au moment de la ruine. Cet essai est inspiré par Dickson and Waters (2004), dont l'idée est de faire supporter aux actionnaires le déficit au moment de la ruine. Ceci est d'autant plus vrai dans le cas d'une compagnie d'assurance dont la ruine doit être évitée. Dans l'exemple de la Figure 1, le déficit au moment de la ruine est noté R. Des exemples numériques nous permettent de comparer le niveau des barrières optimales dans les situations I et II. Cette idée, d'ajouter une pénalité au moment de la ruine, a été généralisée dans Gerber et al. (2006a). Chapitre 2: "Methods for estimating the optimal dividend barrier and the probability of ruin" Dans ce second essai, du fait qu'en pratique on n'a jamais toute l'information nécessaire sur la distribution du montant des sinistres, on suppose que seuls les premiers moments de cette fonction sont connus. Cet essai développe et examine des méthodes qui permettent d'approximer, dans cette situation, le niveau de la barrière optimale, selon le critère usuel (cas I ci-dessus). Les approximations "de Vylder" et "diffusion" sont expliquées et examinées: Certaines de ces approximations utilisent deux, trois ou quatre des premiers moments. Des exemples numériques nous permettent de comparer les approximations du niveau de la barrière optimale, non seulement avec les valeurs exactes mais également entre elles. Chapitre 3: "Optimal dividends with incomplete information" Dans ce troisième et dernier essai, on s'intéresse à nouveau aux méthodes d'approximation du niveau de la barrière optimale quand seuls les premiers moments de la distribution du montant des sauts sont connus. Cette fois, on considère le modèle dual. Comme pour le modèle classique, dans un sens il y a un flux continu et dans l'autre un processus à sauts. A l'inverse du modèle classique, les gains suivent un processus de Poisson composé et les pertes sont constantes et continues; voir la Figure 2. Un tel modèle conviendrait pour une caisse de pension ou une société qui se spécialise dans les découvertes ou inventions. Ainsi, tant les approximations "de Vylder" et "diffusion" que les nouvelles approximations "gamma" et "gamma process" sont expliquées et analysées. Ces nouvelles approximations semblent donner de meilleurs résultats dans certains cas.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
L’objectif de la présente étude visait à évaluer les effets différentiels de la privation de sommeil (PS) sur le fonctionnement cognitif sous-tendu par les substrats cérébraux distincts, impliqués dans le réseau fronto-pariétal attentionnel, lors de l’administration d’une tâche simple et de courte durée. Les potentiels évoqués cognitifs, avec sites d’enregistrement multiples, ont été prévilégiés afin d’apprécier les effets de la PS sur l’activité cognitive rapide et ses corrélats topographiques. Le matin suivant une PS totale d’une durée de 24 heures et suivant une nuit de sommeil normale, vingt participants ont exécuté une tâche oddball visuelle à 3 stimuli. L’amplitude et la latence ont été analysées pour la P200 et la N200 à titre d’indices frontaux, tandis que la P300 a été analysée, à titre de composante à contribution à la fois frontale et pariétale. Suite à la PS, une augmentation non spécifique de l’amplitude de la P200 frontale à l’hémisphère gauche, ainsi qu’une perte de latéralisation spécifique à la présentation des stimuli cibles, ont été observées. À l’opposé, l’amplitude de la P300 était réduite de façon prédominante dans la région pariétale pour les stimuli cibles. Enfin, un délai de latence non spécifique pour la N200 et la P300, ainsi qu’une atteinte de la performance (temps de réaction ralentis et nombre d’erreurs plus élevé) ont également été objectivées. Les résultats confirment qu’une PS de durée modérée entraîne une altération des processus attentionnels pouvant être objectivée à la fois par les mesures comportementales et électrophysiologiques. Ces modifications sont présentes à toutes les étapes de traitement, tel que démontré par les effets touchant la P200, la N200 et la P300. Qui plus est, la PS affecte différemment les composantes à prédominance frontale et pariétale.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.
Resumo:
In this paper, three single-control charts are proposed to monitor individual observations of a bivariate Poisson process. The specified false-alarm risk, their control limits, and ARLs were determined to compare their performances for different types and sizes of shifts. In most of the cases, the single charts presented better performance rather than two separate control charts ( one for each quality characteristic). A numerical example illustrates the proposed control charts.
Resumo:
In this paper we proposed a new two-parameters lifetime distribution with increasing failure rate. The new distribution arises on a latent complementary risk problem base. The properties of the proposed distribution are discussed, including a formal proof of its probability density function and explicit algebraic formulae for its reliability and failure rate functions, quantiles and moments, including the mean and variance. A simple EM-type algorithm for iteratively computing maximum likelihood estimates is presented. The Fisher information matrix is derived analytically in order to obtaining the asymptotic covariance matrix. The methodology is illustrated on a real data set. (C) 2010 Elsevier B.V. All rights reserved.
Resumo:
Motor unit action potentials (MUAPs) evoked by repetitive, low-intensity transcranial magnetic stimulation can be modeled as a Poisson process. A mathematical consequence of such a model is that the ratio of the variance to the mean of the amplitudes of motor evoked potentials (MEPs) should provide an estimate of the mean size of the individual MUAPs that summate to generate each MEP. We found that this is, in fact, the case. Our finding thus supports the use of the Poisson distribution to model MEP generation and indicates that this model enables characterization of the motor unit population that contributes to near-threshold MEPs. Muscle Nerve 42: 825-828, 2010
Resumo:
O presente trabalho objetiva avaliar o desempenho do MECID (Método dos Elementos de Contorno com Interpolação Direta) para resolver o termo integral referente à inércia na Equação de Helmholtz e, deste modo, permitir a modelagem do Problema de Autovalor assim como calcular as frequências naturais, comparando-o com os resultados obtidos pelo MEF (Método dos Elementos Finitos), gerado pela Formulação Clássica de Galerkin. Em primeira instância, serão abordados alguns problemas governados pela equação de Poisson, possibilitando iniciar a comparação de desempenho entre os métodos numéricos aqui abordados. Os problemas resolvidos se aplicam em diferentes e importantes áreas da engenharia, como na transmissão de calor, no eletromagnetismo e em problemas elásticos particulares. Em termos numéricos, sabe-se das dificuldades existentes na aproximação precisa de distribuições mais complexas de cargas, fontes ou sorvedouros no interior do domínio para qualquer técnica de contorno. No entanto, este trabalho mostra que, apesar de tais dificuldades, o desempenho do Método dos Elementos de Contorno é superior, tanto no cálculo da variável básica, quanto na sua derivada. Para tanto, são resolvidos problemas bidimensionais referentes a membranas elásticas, esforços em barras devido ao peso próprio e problemas de determinação de frequências naturais em problemas acústicos em domínios fechados, dentre outros apresentados, utilizando malhas com diferentes graus de refinamento, além de elementos lineares com funções de bases radiais para o MECID e funções base de interpolação polinomial de grau (um) para o MEF. São geradas curvas de desempenho através do cálculo do erro médio percentual para cada malha, demonstrando a convergência e a precisão de cada método. Os resultados também são comparados com as soluções analíticas, quando disponíveis, para cada exemplo resolvido neste trabalho.
Resumo:
Fluorescence confocal microscopy (FCM) is now one of the most important tools in biomedicine research. In fact, it makes it possible to accurately study the dynamic processes occurring inside the cell and its nucleus by following the motion of fluorescent molecules over time. Due to the small amount of acquired radiation and the huge optical and electronics amplification, the FCM images are usually corrupted by a severe type of Poisson noise. This noise may be even more damaging when very low intensity incident radiation is used to avoid phototoxicity. In this paper, a Bayesian algorithm is proposed to remove the Poisson intensity dependent noise corrupting the FCM image sequences. The observations are organized in a 3-D tensor where each plane is one of the images acquired along the time of a cell nucleus using the fluorescence loss in photobleaching (FLIP) technique. The method removes simultaneously the noise by considering different spatial and temporal correlations. This is accomplished by using an anisotropic 3-D filter that may be separately tuned in space and in time dimensions. Tests using synthetic and real data are described and presented to illustrate the application of the algorithm. A comparison with several state-of-the-art algorithms is also presented.
Resumo:
A investigação tem posto em evidência a correlação entre desenvolvimento linguístico e aprendizagem da leitura e da escrita. Procuramos, em primeiro lugar, explicar, do ponto de vista da linguística, as relações entre oral e escrita focalizando a linguagem da criança desde as primeiras produções à produção autónoma de variantes sintacticamente diversificadas. De seguida, abordamos a questão da passagem do oral à escrita dando especial atenção ao impacto sobre o funcionamento cognitivo do trabalho de ditado ao adulto. Finalmente, propomos pistas de reflexão sobre modalidades de interacção necessárias à entrada no modo escrito e ao seu percurso de aprendizagem dando conta de resultados de investigação acção e formação com a abordagem «Coup de pouce Langage».
Resumo:
Sociedade e Território - Enjeux sociaux et transformations du territoire, Nº Especial, Lisboa, p. 53-56
Resumo:
The local fractional Poisson equations in two independent variables that appear in mathematical physics involving the local fractional derivatives are investigated in this paper. The approximate solutions with the nondifferentiable functions are obtained by using the local fractional variational iteration method.