21 resultados para Acceleration data structure
em Université de Montréal, Canada
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
A full understanding of public affairs requires the ability to distinguish between the policies that voters would like the government to adopt, and the influence that different voters or group of voters actually exert in the democratic process. We consider the properties of a computable equilibrium model of a competitive political economy in which the economic interests of groups of voters and their effective influence on equilibrium policy outcomes can be explicitly distinguished and computed. The model incorporates an amended version of the GEMTAP tax model, and is calibrated to data for the United States for 1973 and 1983. Emphasis is placed on how the aggregation of GEMTAP households into groups within which economic and political behaviour is assumed homogeneous affects the numerical representation of interests and influence for representative members of each group. Experiments with the model suggest that the changes in both interests and influence are important parts of the story behind the evolution of U.S. tax policy in the decade after 1973.
Resumo:
In this paper, we look at how labor market conditions at different points during the tenure of individuals with firms are correlated with current earnings. Using data on individuals from the German Socioeconomic Panel for the 1985-1994 period, we find that both the contemporaneous unemployment rate and prior values of the unemployment rate are significantly correlated with current earnings, contrary to results for the American labor market. Estimated elasticities vary between 9 and 15 percent for the elasticity of earnings with respect to current unemployment rates, and between 6 and 10 percent with respect to unemployment rates at the start of current firm tenure. Moreover, whereas local unemployment rates determine levels of earnings, national rates influence contemporaneous variations in earnings. We interpret this result as evidence that German unions do, in fact, bargain over wages and employment, but that models of individualistic contracts, such as the implicit contract model, may explain some of the observed wage drift and longer-term wage movements reasonably well. Furthermore, we explore the heterogeneity of contracts over a variety of worker and job characteristics. In particular, we find evidence that contracts differ across firm size and worker type. Workers of large firms are remarkably more insulated from the job market than workers for any other type of firm, indicating the importance of internal job markets.
Resumo:
Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.
Resumo:
La psychoéducation de même que plusieurs approches théoriques en psychologie clinique suggèrent que l’intervenant constitue un élément actif fondamental des interventions auprès des individus en difficulté. Parmi l’ensemble des caractéristiques des intervenants qui sont utiles de considérer, les attitudes et préférences éducatives des intervenants apparaissent importantes puisqu’elles peuvent être reliées à un bon appariement avec un milieu d’intervention donné, au sentiment d’efficacité professionnelle et, ultimement, à l’efficacité d’une intervention. Or, très peu d’instruments psychométriques d’évaluation validés existent pour évaluer ces construits importants. Cette étude visait principalement à effectuer un examen préliminaire des propriétés psychométriques de la version française du Questionnaire d’attitudes et de préférences des intervenants (QAPÉI; Jesness & Wedge, 1983; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999). Le premier objectif de la présente étude était d’évaluer si la structure théorique originale était reproductible empiriquement ou si une structure factorielle alternative était nécessaire. Le deuxième objectif était d’évaluer si les attitudes et préférences éducatives des intervenants étaient reliées à leurs traits de personnalité. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitive-comportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont démontré que la structure théorique originale n’était pas reproduite empiriquement. Une structure alternative en cinq facteurs a été recouvrée. Cette structure alternative était plus cohérente sur le plan conceptuel et démontrait une bonne adéquation aux données. Les facteurs identifiés ont été nommés Distance affective, Évitement thérapeutique, Exaspération, Permissivité et Coercition. Des analyses corrélationnelles ont démontré que ces échelles d’attitudes et de préférences éducatives étaient reliées de façon conceptuellement cohérente aux traits de personnalité des intervenants, ce qui appuie la validité de critère de la nouvelle structure de l’instrument.
Resumo:
Thèse réalisée en cotutelle avec l'université Montpellier2 dans le laboratoire de pharmacologie moléculaire de Jean-Philippe Pin à l'institut de génomique fonctionnelle (IGF), Montpellier, France.
Resumo:
La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.
Resumo:
L’intensification des pratiques agricoles a été identifiée comme cause majeure du déclin de la biodiversité. Plusieurs études ont documenté l’impact de la fragmentation du paysage naturel et de l’agriculture intensive sur la diversité des espèces, mais très peu ont quantifié le lien entre la structure du paysage et les interactions trophiques, ainsi que les mécanismes d’adaptation des organismes. J’ai étudié un modèle biologique à trois niveaux trophiques composé d’un oiseau hôte, l’hirondelle bicolore Tachycineta bicolor, de mouches ectoparasites du genre Protocalliphora et de guêpes parasitoïdes du genre Nasonia, au travers d’un gradient d’intensification agricole dans le sud du Québec. Le premier objectif était de déterminer l’abondance des espèces de mouches ectoparasites et de leurs guêpes parasitoïdes qui colonisent les nids d’hirondelles dans la zone d’étude. La prévalence de nids infectés par Protocalliphora spp. était de 70,8% en 2008 et 34,6% en 2009. Le pourcentage de nids comprenant des pupes de Protocalliphora parasitées par Nasonia spp. était de 85,3% en 2008 et 67,2% en 2009. Trois espèces de Protocalliphora ont été observées (P. sialia, P. bennetti et P. metallica) ainsi que deux espèces de Nasonia (N. vitripennis et N. giraulti). Il s’agit d’une première mention de P. bennetti et de N. giraulti dans la province de Québec. Mon deuxième objectif était d’évaluer l’impact de l’intensification agricole et de la structure du paysage sur les relations tri-trophiques entre les organismes à l’étude. Les résultats révèlent que les réponses à la structure du paysage de l’hirondelle, de l’ectoparasite et de l’hyperparasite dépendantent de l’échelle spatiale. L’échelle spatiale fonctionnelle à laquelle les espèces répondent le plus varie selon le paramètre du paysage modélisé. Les analyses démontrent que l’intensification des pratiques agricoles entraîne une diminution des populations d’oiseaux, d’ectoparasites et d’hyperparasites. De plus, les populations de Protocalliphora et de Nasonia sont menacées en paysage intensif puisque la dégradation du paysage associée à l’intensification des pratiques agricoles agit directement sur leurs populations et indirectement sur les populations de leurs hôtes. Mon troisième objectif était de caractériser les mécanismes comportementaux permettant aux guêpes de composer avec la variabilité de la structure du paysage et de la qualité des hôtes. Nos résultats révèlent que les femelles Nasonia ajustent la taille de leur ponte en fonction de la taille de la pupe hôte et de l’incidence d’hyperparasitisme. Le seul facteur ayant une influence déterminante sur le ratio sexuel est la proportion de paysage dédié à l’agriculture intensive. Aucune relation n’a été observée entre la structure du paysage et la taille des filles et des fils produits par les femelles Nasonia fondatrices. Ce phénomène est attribué aux comportements d’ajustement de la taille de la ponte et du ratio sexuel. En ajustant ces derniers, minimisant ainsi la compétition entre les membres de leur progéniture, les femelles fondatrices sont capables de maximiser la relation entre la disponibilité des ressources et la valeur sélective de leur progéniture. En conclusion, ce travail souligne l’importance de considérer le contexte spatial des interactions trophiques, puisqu’elles influencent la biodiversité locale et le fonctionnement de l’écosystème.
Resumo:
Les interactions entre des complexes de platine (II) ou de palladium (II) ont une grande influence sur une grande gamme de propriétés chimiques et physiques. Ces propriétés peuvent être étudiées par plusieurs méthodes spectroscopiques comme la spectroscopie Raman, d’absorption, d’émission et de réflectivité diffuse. L’empilement de molécules a un effet important sur les propriétés spectroscopiques de plusieurs composés des éléments de transition. La spectroscopie est très utile pour comprendre les effets intermoléculaires majeurs de plusieurs composés inorganiques. Les complexes plan-carré de platine(II) et de palladium(II) sont très intéressants à cause de leur grande quantité d’effets intermoléculaires et intramoléculaires. Des mesures avec des variations de pression (entre 1 bar et 40 kbar) et de température (entre 80 K et 300 K) ont été effectuées sur ces complexes. La structure à l’état fondamental des composés de platine(II) et de palladium(II) a un effet important sur la spectroscopie de luminescence. Des complexes avec des donneurs axiaux mènent à un effet de déplacement du maximum d’émission vers de plus basses énergies avec l’augmentation de pression. Des complexes similaires sans composante axiale ont un maximum d’émission qui se déplace vers des plus hautes énergies. Ces effets sont explorés à l’aide de plusieurs composés incluant une série de complexes pinceur qui ont démontré des déplacements entre -1 cm-1/kbar et -30 cm-1/kbar. Le changement du type d’émission causé par un changement de pression ou de température est aussi observable. Un complexe de platine(II) montre un changement d’une transition centrée sur le ligand à pression ambiante à une transition de type transfert de charge à plus haute pression. La combinaison de l’information cristallographique et spectroscopique donne de l’information quantitative sur les variations de la structure et des niveaux électroniques de plusieurs complexes.
Resumo:
Introduction: Coordination through CVHL/BVCS gives Canadian health libraries access to information technology they could not offer individually, thereby enhancing the library services offered to Canadian health professionals. An example is the portal being developed. Portal best practices are of increasing interest (usability.gov; Wikipedia portals; JISC subject portal project; Stanford clinical portals) but conclusive research is not yet available. This paper will identify best practices for a portal bringing together knowledge for Canadian health professionals supported through a network of libraries. Description: The portal for Canadian health professionals will include capabilities such as: • Authentication • Question referral • Specialist “branch libraries” • Integration of commercial resources, web resources and health systems data • Cross-resource search engine • Infrastructure to enable links from EHR and decision support systems • Knowledge translation tools, such as highlighting of best evidence Best practices will be determined by studying the capabilities of existing portals, including consortia/networks and individual institutions, and through a literature review. Outcomes: Best practices in portals will be reviewed. The collaboratively developed Virtual Library, currently the heart of cvhl.ca, is a unique database collecting high quality, free web documents and sites relevant to Canadian health care. The evident strengths of the Virtual Library will be discussed in light of best practices. Discussion: Identification of best practices will support cost-benefit analysis of options and provide direction for CVHL/BVCS. Open discussion with stakeholders (libraries and professionals) informed by this review will lead to adoption of the best technical solutions supporting Canadian health libraries and their users.
Resumo:
Les molécules classiques du CMH de classe II sont responsables de la présentation de peptides exogènes par les cellules présentatrices d’antigène aux lymphocytes T CD4+. Cette présentation antigénique est essentielle à l’établissement d’une réponse immunitaire adaptative. Cependant, la reconnaissance d’auto-antigènes ainsi que l’élimination des cellules du Soi sont des problèmes à l’origine de nombreuses maladies auto-immunes. Notamment, le diabète et la sclérose en plaque. D’éventuels traitements de ces maladies pourraient impliquer la manipulation de la présentation antigénique chez les cellules dont la reconnaissance et l’élimination engendrent ces maladies. Il est donc primordial d’approfondir nos connaissances en ce qui concerne les mécanismes de régulation de la présentation antigénique. La présentation antigénique est régulée tant au niveau transcriptionnel que post-traductionnel. Au niveau post-traductionnel, diverses cytokines affectent le processus. Parmi celles-ci, l’IL-10, une cytokine anti-inflammatoire, cause une rétention intracellulaire des molécules du CMH II. Son mécanisme d’action consiste en l’ubiquitination de la queue cytoplasmique de la chaîne bêta des molécules de CMH II. Cette modification protéique est effectuée par MARCH1, une E3 ubiquitine ligase dont l’expression est restreinte aux organes lymphoïdes secondaires. Jusqu’à tout récemment, il y avait très peu de connaissance concernant la structure et les cibles de MARCH1. Considérant son impact majeur sur la présentation antigénique, nous nous sommes intéressé à la structure-fonction de cette molécule afin de mieux caractériser sa régulation ainsi que les diverses conditions nécessaires à son fonctionnement. Dans un premier article, nous avons étudié la régulation de l’expression de MARCH1 au niveau protéique. Nos résultats ont révélé l’autorégulation de la molécule par formation de dimères et son autoubiquitination. Nous avons également démontré l’importance des domaines transmembranaires de MARCH1 dans la formation de dimères et l’interaction avec le CMH II. Dans un second article, nous avons investigué l’importance de la localisation de MARCH1 pour sa fonction. Les résultats obtenus montrent la fonctionnalité des motifs de localisation de la portion C-terminale de MARCH1 ainsi que la présence d’autres éléments de localisation dans la portion N-terminale de la protéine. Les nombreux mutants utilisés pour ce projet nous ont permis d’identifier un motif ‘‘VQNC’’, situé dans la portion cytoplasmique C-terminale de MARCH1, dont la valine est requise au fonctionnement optimal de la molécule. En effet, la mutation de la valine engendre une diminution de la fonction de la molécule et des expériences de BRET ont démontré une modification de l’orientation spatiale des queues cytoplasmiques. De plus, une recherche d’homologie de séquence a révélé la présence de ce même motif dans d’autres ubiquitines ligases, dont Parkin. Parkin est fortement exprimée dans le cerveau et agirait, entre autre, sur la dégradation des agrégats protéiques. La dysfonction de Parkin cause l’accumulation de ces agrégats, nommés corps de Lewy, qui entraînent des déficiences au niveau du fonctionnement neural observé chez les patients atteints de la maladie de Parkinson. La valine comprise dans le motif ‘’VQNC’’ a d’ailleurs été identifiée comme étant mutée au sein d’une famille où cette maladie est génétiquement transmise. Nous croyons que l’importance de ce motif ne se restreint pas à MARCH1, mais serait généralisée à d’autres E3 ligases. Ce projet de recherche a permis de caractériser des mécanismes de régulation de MARCH1 ainsi que de découvrir divers éléments structuraux requis à sa fonction. Nos travaux ont permis de mieux comprendre les mécanismes de contrôle de la présentation antigénique par les molécules de CMH II.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Le virus de l'hépatite C (VHC) touche 3% de la population mondiale et environ 30% des patients chroniquement infectés développeront une fibrose hépatique. Son génome est un ARN simple brin de polarité positive qui possède un cadre ouvert de lecture flanqué de deux régions non traduites hautement conservées. Différents facteurs peuvent influencer le cycle de réplication du VHC. Deux d’entre eux ont été étudiés dans cette thèse. Tout d'abord, nous nous sommes intéressés à l'effet des structures secondaires et tertiaires du génome sur la réplication du VHC. Les extrémités 5' et 3' du génome contiennent des structures ARN qui régulent la traduction et la réplication du VHC. Le 3'UTR est un élément structural très important pour la réplication virale. Cette région est constituée d’une région variable, d’une séquence poly(U/C) et d’un domaine hautement conservé appelé région X. Des études in vitro ont montré que le 3'UTR possède plusieurs structures ARN double brin. Cependant, les structures ARN telles qu'elles existent dans le 3'UTR dans un contexte de génome entier et dans des conditions biologiques étaient inconnues. Pour élucider cette question, nous avons développé une méthode in situ pour localiser les régions ARN simple brin et double brin dans le 3'UTR du génome du VHC. Comme prédit par les études antérieures, nous avons observé qu’in situ la région X du 3’UTR du génome présente des éléments ARN double brin. Étonnamment, lorsque la séquence poly (U/UC) est dans un contexte de génome entier, cette région forme une structure ARN double brin avec une séquence située en dehors du 3'UTR, suggérant une interaction ARN-ARN distale. Certaines études ont démontré que des structures ARN présentes aux extrémités 5’ et 3' du génome du VHC régulent à la fois la traduction et la réplication du VHC. Cela suggère qu'il y aurait une interaction entre les extrémités du génome qui permettrait de moduler ces deux processus. Dans ce contexte, nous avons démontré l'existence d'une interaction distale ARN-ARN, impliquant le domaine II du 5'UTR et la séquence codante de NS5B du génome du VHC. En outre, nous avons démontré que cette interaction joue un rôle dans la réplication de l'ARN viral. Parallèlement, nous avons étudié l'impact d'une molécule immuno-modulatrice sur la réplication du VHC. La fibrose hépatique est une manifestation majeure de l’infection par le VHC. Hors, il a été montré qu'une molécule immuno-modulatrice appelée thalidomide atténuait la fibrose chez les patients infectés par le VHC. Cependant, son impact sur la réplication virale était inconnu. Ainsi, nous avons étudié l'effet de cette molécule sur la réplication du VHC in vitro et nous avons démontré que la thalidomide active la réplication du virus en inhibant la voie de signalisation de NF-kB. Ces résultats soulignent l’importance de la voie de signalisation NF-kB dans le contrôle de la réplication du VHC, et sont à prendre en considération dans l’établissement d’un traitement contre la fibrose hépatique.