976 resultados para États-majors -- Turquie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats présentés dans cette thèse précisent certains aspects de la fonction du cotransporteur Na+/glucose (SGLT1), une protéine transmembranaire qui utilise le gradient électrochimique favorable des ions Na+ afin d’accumuler le glucose à l’intérieur des cellules épithéliales de l’intestin grêle et du rein. Nous avons tout d’abord utilisé l’électrophysiologie à deux microélectrodes sur des ovocytes de xénope afin d’identifier les ions qui constituaient le courant de fuite de SGLT1, un courant mesuré en absence de glucose qui est découplé de la stoechiométrie stricte de 2 Na+/1 glucose caractérisant le cotransport. Nos résultats ont démontré que des cations comme le Li+, le K+ et le Cs+, qui n’interagissent que faiblement avec les sites de liaison de SGLT1 et ne permettent pas les conformations engendrées par la liaison du Na+, pouvaient néanmoins générer un courant de fuite d’amplitude comparable à celui mesuré en présence de Na+. Ceci suggère que le courant de fuite traverse SGLT1 en utilisant une voie de perméation différente de celle définie par les changements de conformation propres au cotransport Na+/glucose, possiblement similaire à celle empruntée par la perméabilité à l’eau passive. Dans un deuxième temps, nous avons cherché à estimer la vitesse des cycles de cotransport de SGLT1 à l’aide de la technique de la trappe ionique, selon laquelle le large bout d’une électrode sélective (~100 μm) est pressé contre la membrane plasmique d’un ovocyte et circonscrit ainsi un petit volume de solution extracellulaire que l’on nomme la trappe. Les variations de concentration ionique se produisant dans la trappe en conséquence de l’activité de SGLT1 nous ont permis de déduire que le cotransport Na+/glucose s’effectuait à un rythme d’environ 13 s-1 lorsque le potentiel membranaire était fixé à -155 mV. Suite à cela, nous nous sommes intéressés au développement d’un modèle cinétique de SGLT1. En se servant de l’algorithme du recuit simulé, nous avons construit un schéma cinétique à 7 états reproduisant de façon précise les courants du cotransporteur en fonction du Na+ et du glucose extracellulaire. Notre modèle prédit qu’en présence d’une concentration saturante de glucose, la réorientation dans la membrane de SGLT1 suivant le relâchement intracellulaire de ses substrats est l’étape qui limite la vitesse de cotransport.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Deux conceptions de la moralité dominent actuellement l’analyse des enjeux moraux internationaux : la moralité d’États et la moralité cosmopolitique. La première reconnaît les États comme unités fondamentales du système international et la seconde, celle des individus. Dans cette thèse, nous développons une conception différente de la moralité : l’approche du discours moral hégémonique. Notre objectif est de démontrer que celle-ci est plus à même d’expliquer et de comprendre la moralité dans le monde contemporain. Elle nous permet de mettre l’accent sur la progression d’un discours moral dominant ainsi que sur le rôle de ceux ayant contribué à son développement. Afin de faire une analyse critique de l’histoire dominante du discours moderne des droits, nous avons d’abord identifié deux caractéristiques fondamentales à ce discours : l’individualisme et l’universalisme. Ensuite, nous avons étudié leur reproduction dans le temps. Pour ce faire, les principales irrégularités de leur histoire au cours des siècles sont exposées ainsi qu’à deux moments distincts au cours du 20e siècle. Ce parcours nous a permis d’observer que malgré ses opposants, une certaine conception du discours des droits s’est internationalisée après la Seconde Guerre mondiale. Ensuite, une étude approfondie des débats entourant la rédaction de la Déclaration universelle de 1948 et celle de la Conférence de Vienne de 1993 démontre que cette conception des droits maintient sa position hégémonique à l’échelle internationale. Par conséquent, nous concluons sur la validité de l’approche du discours moral hégémonique pour comprendre la signification du discours moral des droits humains à l’échelle internationale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire questionne l'influence internationale du Canada lors du Golden Age en fournissant une étude de cas de sa politique étrangère focalisée sur ses relations avec la France. Les institutions multilatérales constituaient la pierre angulaire de la politique extérieure canadienne; elles devaient lui conférer des contrepoids politiques et économiques pour s'autonomiser des États-Unis. Pour la France, ces institutions étaient souvent perçues comme une contrainte et elle cherchait à les affaiblir ou les réformer. Parallèlement, elle tentait de préserver son empire colonial et exigeait un appui occidental unanime. Elle fut l'allié occidental qui attaquait le plus systématiquement le projet canadien d'une politique étrangère reposant sur l'équilibre entre un engagement à l'OTAN et une politique ouvertement anticoloniale devant courtiser les pays non alignés du Commonwealth. Cette étude s'intéresse aux stratégies d'action d'une «puissance moyenne» qui tentait de désamorcer les crises interalliées et de réconcilier les dimensions contradictoires de sa propre politique extérieure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire offre un résumé de l’état de la recherche quant à la perception des Japonais et de l’ennemi japonais aux États-Unis avant et pendant la Deuxième Guerre mondiale. Il en ressort que la question plus spécifique du traitement réservé à l’ennemi japonais et à la responsabilité des actions de guerre perpétrées par celui-ci dans les journaux américains mérite d’être approfondie. L’analyse des articles publiés dans les trois mois suivant l’attaque japonaise de Pearl Harbour et précédant la fin officielle de la guerre dans trois grands périodiques américains de l’époque suggère que ceux-ci offrirent un traitement de l’ennemi japonais similaire à celui présent dans l’ensemble des autres média américains de l’époque, mais que ce traitement est généralement plus nuancé et éclaté dans les trois mois précédant la fin de la guerre. Certaines dissensions importantes peuvent y être constatée quant à la question de la responsabilité des actions de guerre japonaises entre les périodiques, ce qui suggère l’existence de points de vue, de valeurs et de perceptions différentes des Japonais aux États-Unis pendant la Deuxième Guerre mondiale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe actuellement des différends frontaliers entre les États circumpolaires-Nord qui entravent la bonne gouvernance de la région. Afin d'identifier des pistes de solution pour améliorer la gouvernance en Arctique et faciliter la coopération, nous analysons le processus qui a mené, à l'autre pôle, à la création du Traité sur l’Antarctique de 1959. Nous utilisons une approche néolibérale institutionnelle comme cadre théorique ainsi qu’une méthodologie basée sur le traçage de processus. Nous avons identifié quatre variables (les intérêts des États, le contexte politique, le leadership, et l’Année géophysique internationale [AGI]) que nous avons étudiés au cours de trois périodes historiques et dont l’évolution a contribué à la formation du régime antarctique. Les étapes menant à l'élaboration d'un régime identifié dans la théorie institutionnaliste dynamique de Frischmann s'appliquent aux différentes périodes que nous avons déterminées. La première période historique correspond à l'identification du problème d'interdépendance. Les États ont d’abord tenté d’assouvir leurs intérêts particuliers envers le continent antarctique par l’intermédiaire de stratégies individuelles. Le statut imprécis du continent antarctique caractérisé par des revendications territoriales conflictuelles, la volonté des superpuissances d’effectuer d’éventuelles revendications territoriales et le leadership exercé par les États-Unis ont toutefois permis de faire évoluer les États vers des stratégies coopératives. La deuxième période historique correspond à l'étape de la négociation de l’entente. Le leadership d’un groupe de scientifiques et des États-Unis ainsi que le contexte politique de la Guerre froide ont favorisé la cohésion des États intéressés par les affaires antarctiques et leur investissement dans une coopération multilatérale souple dans le cadre d’un événement ponctuel, l’AGI. La troisième période correspond à la mise en oeuvre de l’entente, soit l’AGI. Lors de cet événement, une entente tacite, un engagement d’honneur, qui suspendait les considérations territoriales en Antarctique, a été respectée par les parties. La coopération dans le cadre de l’AGI s’est avérée un succès. Les États se sont montrés satisfaits des gains que comportait la coopération scientifique dans un environnement pacifique. L’AGI a permis aux États d’expérimenter la coopération multilatérale et d’observer le comportement des autres participants au sein de l’institution. En raison de la satisfaction des États vis-à-vis la coopération dans le cadre de l'entente souple, l'élaboration du traité de 1959 a été facilitée. Notre étude nous a permis d’identifier des éléments clefs qui ont favorisé la formation du régime antarctique et qui pourraient servir d’inspiration pour l'élaboration de futurs régimes. La présence d’un leadership tout au long du processus a permis de promouvoir les avantages de la coopération sous différentes formes et de renforcer les relations entre les États présents dans les affaires antarctiques. La réalisation d'une entente souple dans le cadre de l'AGI, centrée autour des intérêts communs aux parties, comprenant un engagement d’honneur, permettant de mettre de côté les points de discorde, ont aussi été des points centraux dans la réussite et la poursuite de la coopération au-delà de l’AGI. Cette approche graduelle allant du droit souple vers le droit contraignant est sans aucun doute l’élément le plus important ayant facilité le rapprochement des différentes parties et éventuellement la création du Traité sur l’Antarctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prenant l’illustration des États-Unis, la responsabilité sociale des entreprises et le développement durable intègrent progressivement le droit des sociétés. Si ce mouvement s’inscrit dans le sens de l’histoire, il a pris depuis quelques temps une intensité particulière. D’une part, la gouvernance d’entreprise montre des signes de remise en question du dogme de la primauté des actionnaires comme en témoigne la jurisprudence rendue à propos des devoirs des administrateurs et des dirigeants. D’autre part, les structures sociétaires récemment mises en place dans plusieurs État américains (Benefit Corporation et Flexible Purpose Corporation) constitue une étape fondamentale pour une contribution de nature différente du monde économique à la société lato sensu. Néanmoins, les conséquences de ces mutations demeurent à l’heure actuelle difficiles à évaluer tant elles font face à des obstacles dont le droit américain des sociétés est lui-même porteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Responsabilité sociale (RSE) et droit financier sont souvent perçus comme des notions appartenant à des sphères différentes. La première serait une ouverture sur des préoccupations de long-terme et de nature extra-financière ; la seconde se caractériserait par une concentration sur le court-terme et une recherche de maximisation d’un retour financier. Toutefois, si cette croyance a longtemps prévalu en Europe, il apparaît que les temps changent. La crise financière, économique, sociale, environnementale oblige à repenser certains fondamentaux dont celui de l’hermétisme de la finance à la RSE. Bien qu’habituellement l’investissement socialement responsable soit l’authentique cheval de troie de cet intérêt du monde financier pour d’autres modes de pensées et de croyances se résumant en une fascination pour le credo néolibéral, il nous semble que la construction contemporaine du droit financier va bien au-delà de cette observation. En effet, le droit des sociétés et financier que l’Europe rebâti sur de nouvelles bases paraît animé d’un souffle nouveau... celui de la RSE. Qu’il s’agisse de l’architecture de la finance, de ses acteurs, de son information ou de ses principes sous-jacents, tout semble s’orienter vers une « RSisation » de la finance européenne. À défaut d’une telle orientation, le risque est grand pour l’Europe. À ce titre, n’oublions pas ce qu’écrivait Simonde de Sismondi au XIXe siècle : « [C]e n’est point [...] d’une manière absolue que la richesse et la population sont les signes de la prospérité des États ; c’est seulement dans leurs rapports l’un avec l’autre. La richesse est un bien lorsqu’elle répand l’aisance dans toutes les classes ; la population est un avantage lorsque chaque homme est sûr de trouver par le travail une honnête existence. Mais un État peut être misérable encore que quelques individus y accumulent des fortunes colossales ; et si sa population [...] est toujours supérieure à ses moyens de subsistance, si elle se contente pour vivre du rebut des animaux, si elle est sans cesse menacée par la famine, cette population nombreuse, loin d’être un objet d’envie ou un moyen de puissance, est une calamité. »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les conflits entre centres et périphéries à l’intérieur des pays. Ces dernières années, de nombreux États ont vu l'émergence de régions ou territoires qui défient leurs «centres» politiques. Ces disputes peuvent atteindre divers degrés d'affrontement, en allant des simples divisions électorales à la sécession d'une périphérie rebelle. Pourquoi certaines régions défient-elles ouvertement leur centre, tandis que d'autres ne le font pas? Dans quelles conditions les différences entre le centre et les périphéries sont-elles maîtrisées et circonscrites, et quelles sont celles qui les exacerbent? La thèse cherche à répondre à ces questions en analysant les cas de la Bolivie et du Pérou. En Bolivie, pendant les années 2000, le conflit régional a donné lieu à un clivage entre centre et périphérie; au Pérou, malgré les similitudes avec la Bolivie, un clivage similaire ne s’est pas déployé. Pourquoi cette différence? La thèse répond à la question par une analyse historique comparée. Elle suggère que les conflits entre le centre et les périphéries doivent s’analyser à partir de la combinaison de deux dimensions. La première est l’absence ou la présence d’élites régionales qui, à partir d'organisations et de mises en discours qu'elles rendent légitimes, définissent et représentent les revendications de la région et négocient avec l'État central. La deuxième dimension renvoie aux conditions structurelles de la région, en particulier l'importance des ressources naturelles et la taille de sa population. La thèse développe une analyse historique de la façon dont les deux dimensions ont évolué en Bolivie et au Pérou au cours de la seconde moitié du XX siècle. Cette analyse permet d’expliquer la divergence entre les résultats dans chacun des cas, et de suggérer des réflexions plus générales sur les relations entre les centres et les périphéries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.