136 resultados para Modèle non-standard


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce texte se veut un document de présentation visant familiariser les différents auteurs ayant participé à l’étude « Étude de faisabilité : Modèle de fournisseur de services de dépôt électronique », commandée par le Bureau du Registraire de la Cour suprême du Canada en septembre 2002 avec la notion de dépôt électronique telle qu’envisagée par le gouvernement canadien. Il fait l’état d’un modèle conceptuel de marché de fournisseur de services de dépôt électronique (FSDE) normatif géré par le secteur privé afin de fournir des services de dépôt électronique sûrs et peu coûteux aux praticiens du droit au Canada. Ce modèle envisagé par les responsables du projet pourra, grâce à l’utilisation de la norme juridique XML Court Filing 1.0, fournir une plate-forme commune de dépôt électronique et de gestion des documents offrant une interface avec les systèmes de gestion des instances et de gestion des documents de chaque tribunal. Ces travaux ne constituent pas pour autant un endossement du modèle FSDE, mais plutôt un engagement d’étudier de façon complète et systématique une solution de rechange au dépôt électronique afin d’améliorer notre connaissance collective dans ce domaine.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Le présent rapport a pour objet de fournir un commentaire détaillé sur la faisabilité globale d'un portail unique de dépôt électronique hébergé par le secteur privé (modèle transactionnel central de dépôt électronique) fondé sur la norme LegalXML. Le résultat attendu principal est une opinion concernant la faisabilité du modèle à guichet unique (portail électronique). D'autres résultats attendus comprennent : une connaissance accrue chez les intéressés du modèle de fournisseur de services et une évaluation préliminaire de l'appui que le modèle reçoit. Nous avons utilisé deux véhicules d'analyse principaux pour réaliser les objectifs de l'étude susmentionnés : des analyses documentaires et des entretiens auprès d'intéressés. Les analyses visent explicitement à : examiner des approches différentes au dépôt électronique, notamment un système de dépôt électronique comme extension de chaque instance, et l'hébergement par le secteur privé par opposition au secteur public d'un guichet unique; recenser les questions et les facteurs de risque critiques se rapportant à la mise en place de services de dépôt électronique dans les cours, notamment la protection des renseignements personnels, la propriété intellectuelle et la sécurité, et en discuter; opposer chacun de ces points au modèle de FSA; faire des recommandations sur la stratégie permettant de régler les questions et les facteurs de risque critiques. L'étude a révélé que : de nombreux intéressés appuient le dépôt électronique; de nombreux intéressés (p. ex. les avocats) ne font aucune distinction entre les formes différentes de dépôt électronique, tandis que d'autres s'en soucient beaucoup (p. ex. administrateurs de certaines cours); un modèle de fournisseur de services de dépôt électronique (FSDE) à guichet unique offre quelques avantages importants par rapport à une approche de dépôt électronique individuelle, surtout pour ce qui concerne les coûts et la plate-forme de l'avenir; un modèle de FSDE du secteur privé offre des avantages considérables par rapport à un modèle de FSDE du secteur privé, surtout en matière de succès et de coût de la mise en œuvre."

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les anomalies du tube neural (ATN) sont des malformations congénitales très fréquentes chez l’humain en touchant 1-2 nouveau-nés sur 1000 naissances. Elles résultent d’une fermeture incomplète du tube neural lors de l’embryogenèse. L’étiologie des ATN est complexe impliquant des facteurs environnementaux et des facteurs génétiques. La souris représente un outil puissant afin de mieux comprendre la génétique des ATN. Particulièrement, la souris modèle a impliqué fortement la voie de la polarité cellulaire planaire (PCP) dans ces malformations. Dans cette étude, nous avons identifié et caractérisé une nouvelle souris mutante, Skam26Jus dans le but d’identifier un nouveau gène causant les ATN. Skam26Jus a été générée par l’agent mutagène N-Ethyl-N-Nitrosuera. Cette souris est caractérisée par une queue en forme de boucle ou de crochet, soit un phénotype associé aux ATN. La complémentation génétique de la souris Skam26Jus avec une souris mutante d’un gène de la voie PCP Vangl2 (Looptail) a montré une interaction génétique entre le gène muté chez Skam26Jus et Vangl2, suggérant que ces deux gènes fonctionnent dans des voies de signalisation semblables ou parallèles. Un total de 50% des embryons doubles hétérozygotes avec un phénotype de la queue présentent un spina bifida. La cartographie par homozygotie du génome entier suivie par un clonage positionnel a permis d’identifier Lrp6 comme le gène muté chez Skam26Jus. Une mutation homozygote, p.Ile681Arg, a été identifiée dans Lrp6 chez les souris ayant une queue en boucle/crochet. Cette mutation était absente dans 30 souches génétiques pures indiquant que cette mutation est spécifique au phénotype observé. Une étude de phénotype-génotype évalue la pénétrance à 53 % de la mutation Ile681Arg. Lrp6 est connu pour activer la voie canonique Wnt/β-caténine et inhiber la voie non canonique Wnt/PCP. Le séquençage de la région codante et de la jonction exon-intron de LRP6 chez 268 patients a mené à l’identification de quatre nouvelles rares mutations faux sens absentes chez 272 contrôles et de toutes les bases de données publiques. Ces mutations sont p.Tyr306His ; p.Tyr373Cys ; p.Val1386Ile; p.Tyr1541Cys et leur pathogénicité prédite in silico indiquent que p.Val1386Ile est bénigne, et que p.Tyr306Hiset p.Tyr373Cys et p.Tyr1541Cys sont i possiblement dommageables. Les mutations p.Tyr306His, p.Tyr373Cys et p.Tyr1541Cys ont affecté l’habilité de LRP6 d’activer la voie Wnt/β-caténine en utilisant le système rapporteur luciférase de pTOPflash. Nos résultats suggèrent que LRP6 joue un rôle dans le développement des ATN chez une petite fraction de patients ayant une ATN. Cette étude présente aussi Skam26Jus comme un nouveau modèle pour étudier les ATN chez l’humain et fournit un outil important pour comprendre les mécanismes moléculaires à l’origine des A TN.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La leucémie aigüe lymphoblastique de précurseurs des cellules B (pré-B LAL) est le cancer le plus fréquent chez l’enfant. La transplantation de cellules souches hématopoïétiques (TCSH) est nécessaire dans environ 20 à 30 % des enfants ayant une pré-B LAL. Les rechutes après TCSH sont habituellement réfractaires aux thérapies actuelles, et par conséquent, il est important de développer et d’optimiser de nouvelles stratégies thérapeutiques. Dans cette étude, nous nous sommes intéressés aux cellules « cytokine-induced killer » (CIK). En effet, ces cellules ont été montrées comme hautement cytotoxique contre beaucoup de types de cancers. Cependant, leur activité cytotoxique contre les pré-B LAL n’est pas vraiment efficace. Par conséquent, nous avons étudié la possibilité de combiner l’immunothérapie des cellules CIK avec l’interféron alpha (IFN-α) afin d’optimiser l’activité lytique de ces cellules contre les cellules pré-B LAL. De plus, vu qu’il a été démontré que l’activité cytotoxique des cellules CIK provient de la fraction CD56+, plus particulièrement les cellules CD3+CD56+, nous avons décidé d’utiliser la fraction CD56+ (cellules CD56+) dans l’ensemble de nos expériences. Nous avons observé in vitro que les cellules CD56+ lysent mieux les lignées cellulaires pré-B LAL comparativement aux cellules CIK non purifiées. Aussi, leur activité cytotoxique peut être augmentée par le traitement avec l’IFN-α. Par ailleurs, nous avons démontré l’efficacité des cellules CD56+ traitées par l’IFN-α contre les lignées cellulaires pré- B LAL in vivo, dans le modèle de souris NOD/SCID/gamma c- (NSG). La survie des souris est significativement prolongée lorsqu’elles reçoivent les cellules pré-B LAL avec les cellules CD56+ traitées par l’IFN-α. Nous avons par la suite étudié le mécanisme d’action des cellules CD56+ contre les lignées cellulaires pré-B LAL. Nous avons observé que les cellules CD56+ provenant de sang de cordon sont plus efficaces que les cellules CD56+ provenant de sang I périphérique pour tuer les lignées cellulaires pré-B LAL. Nous avons également montré que les cellules CD56+ utilisent seulement la voie NKG2D ou bien les voies NKG2D et TRAIL selon la lignée cellulaire pré-B LAL cible et selon la provenance de la source des cellules CD56+. Par ailleurs, nous avons remarqué que les cellules CIK sont sensibles à l’apoptose par Fas, et que cette sensibilité influence leur activité cytotoxique contre les cellules tumorales. En conclusion, les cellules CD56+ sont cytotoxiques contre les lignées cellulaires pré-B LAL, et leur effet lytique est augmenté par l’IFN-α aussi bien in vitro qu’in vivo dans le modèle de souris NSG. Ces données précliniques sont encourageantes pour tester cette nouvelle approche d’immunothérapie dans le traitement contre la pré-B LAL.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) option expertise-conseil en soins infirmiers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université de Montréal et l'Université Panthéon-Assas Paris II

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Peu différenciées à la naissance, les émotions deviendraient intelligibles en étant élevées à la conscience par le développement d’une sensibilité aux sensations internes accompagnant l’émotion, sa représentation et sa symbolisation (Gergely & Watson, 1996). La théorie du miroir affectif-parental du biofeedback social de Gergely & Watson (1996), poussée plus loin par Fonagy, Gergely, Jurist et Target (2002), explique comment une interaction de biofeedback social complexe, innée, et probablement implicite, s’établit entre parent et nouveau-né pour aider ce dernier à différencier les somatosensations accompagnant l’expérience d’une émotion, au travers d’un comportement parental de miroir. Le but de cette thèse est de réviser cette théorie, et plus particulièrement l’hypothèse du miroir « marqué » (markedness), qui serait nécessaire pour dissocier le miroir parental du parent, et permettre l’appropriation de son contenu informationnel par l’enfant. Ce processus de sensibilisation est conçu comme partie intégrante du travail de symbolisation des émotions chez les enfants autant que chez les adultes. Cependant, le miroir marqué se manifestant par une expression exagérée ou « voix de bébé » (motherese) nécessiterait l’utilisation par le thérapeute d’une « voix de patient » (therapese) (Fonagy, 2010) pour être appliqué à la psychothérapie adulte, une proposition difficile à soutenir. La révision examine comment la sensibilisation d’une émotion est accomplie : par un mécanisme d’internalisation nécessitant un miroir « marqué » ou par un mécanisme de détection de la contingence de l’enfant. Elle démontre que le détecteur de contingence du nouveau-né (d’un fonctionnement semblable au système d’entraînement par biofeedback pour adultes) est le médiateur des fonctions de sensibilisation, de représentation, et de symbolisation de la ii sensation d’une émotion par ses processus de détection de la covariance-invariance, de la maximisation, et du contrôle contingent du miroir parental. Ces processus permettent à l’émotion de devenir consciente, que le miroir parental soit ‘marqué’ ou non. Le modèle révisé devient donc applicable à la thérapie des adultes. Une vignette clinique analysée à l’aide de la perspective du Boston Change Process Study Group sur le changement est utilisée pour contraster et illustrer les processus de sensibilisation et de symbolisation des émotions, et leur application à la psychothérapie adulte. Cette thèse considère les implications cliniques du nouveau modèle, et elle spécule sur les conséquences de difficultés parentales vis-à-vis de la disponibilité requise par les besoins de biofeedback social du nouveau-né, et sur les conséquences de traumatismes déconnectant des émotions déjà sensibilisées de leurs représentations. Finalement, elle suggère que le miroir sensible des émotions en thérapie puisse remédier à ces deux sortes de difficultés, et que le modèle puisse être utilisé concurremment à d’autres modèles du changement, en facilitant la génération d’états internes ressentis et symbolisés pouvant être utilisés pour communiquer avec soi-même et les autres pour la réparation de difficultés émotionnelles et relationnelles chez les enfants et les adultes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les propriétés antioxydantes du resvératrol sont d’un grand intérêt pour contrer la dysfonction endothéliale où la contribution du stress oxydant est majeure. Cette dysfonction endothéliale est d’ailleurs bien caractérisée en hypertrophie ventriculaire gauche (HVG). Cette étude vise à explorer les effets thérapeutiques du resvératrol sur la dysfonction endothéliale des artères coronaires épicardiques associée à l’HVG. L’HVG est induite suite à un cerclage aortique (CA) sur des porcelets de 2 mois. Le resvératrol est ensuite administré à 20 mg/kg/jour per os aux animaux répertoriés dans différents groupes. Le groupe 1 comprend les animaux contrôles sans CA alors que le groupe 2 représente les porcelets ayant subit le CA sans traitement. Le groupe 3 comprend les animaux traités pendant les 60 jours après la chirurgie alors que le groupe 4 est traité seulement à partir du 30ème jour jusqu’au jour 60. Des analyses échocardiographiques et histologiques ont été effectuées afin de déterminer le degré d’hypertrophie et l’impact du resvératrol sur la progression de l’HVG alors que la réactivité vasculaire a été évaluée par des expériences de chambres d’organes. La dysfonction endothéliale a été étudiée in vitro par quantification des métabolites nitriques et des niveaux de GMPc tandis que le stress oxydant est décrit par les niveaux d’angiotensine II (Ang II) et de protéines carbonylées. Les courbes dose-réponse à la sérotonine du groupe 3 traité pendant les 60 jours au resvératrol ont démontré une relaxation vasculaire significativement améliorée comparé au groupe 2 non-traité (p<0,05). Le pourcentage de changement du rapport de la masse du ventricule gauche sur la masse corporelle (LVmass/BW) a démontré une inhibition du développement de l’HVG dans le groupe 3 alors que le groupe 4 n’a pas eu d’effets bénéfiques des 30 jours de traitement au resvératrol. La biodisponibilité du NO représentée par la mesure de ses métabolites en circulation (398,71±21,74 ; 151,04±14,95 ; 241,86±15,53 ; 208,17±26,52 uM pour les groupes 1, 2, 3 et 4 respectivement, p<0,001 pour groupe 1 et 3 vs groupe 2) et par le niveau de GMPc a été augmentée avec l’administration du polyphénol (2,54±0,63 ; 0,67±0,45 ; 1,71±0,25 ; 1,98±0,29 pmol/ml pour les groupes 1, 2, 3 et 4 respectivement, p<0,05 pour groupe 1, 3 et 4 vs groupe 2). Le rôle antioxydant du resvératrol a été confirmé avec une réduction des niveaux de protéines carbonylées chez le groupe 3 comparé aux valeurs du groupe 2 (0,14±0,05 vs 0,33±0,03 nmol/mg respectivement) sans diminution des niveaux d’Ang II. Le resvératrol a aussi réduit l’hypertrophie des cardiomyocytes et la fibrose interstitielle. Ainsi, le resvératrol peut effectivement réduire la dysfonction endothéliale des artères coronaires épicardiques et limiter l’occurrence de remodelage myocardique associé à l’HVG, principalement à travers l’activation de la signalisation dépendante du NO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.