216 resultados para Fricitons financières
Resumo:
Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Après des années d’efforts, l’Afrique Sub-saharienne n’a connu qu’une faible amélioration de ses indicateurs de santé maternelle. Assurer l’accès aux soins obstétricaux d’urgence (SOU) pour toutes les femmes est une stratégie efficace pour réduire la mortalité maternelle. Cependant, ces soins sont dispendieux et ces dépenses peuvent être « catastrophiques ». Afin d’en réduire le fardeau, le Mali a instauré la gratuité de la césarienne et un système de référence-évacuation. L’objectif de cette étude est d’examiner la prévalence et les facteurs contribuant aux dépenses catastrophiques liées aux SOU dans la région de Kayes, Mali. Elle vise aussi à étudier les conséquences socioéconomiques de ces dépenses au sein des ménages. L’étude a révélé que les dépenses lors d’urgences obstétricales sont en moyenne de 71535 FCFA (US$ 152). Entre 20.7% et 53.5% des ménages ont encouru des dépenses catastrophiques supérieures à 15% et 5% de leur revenu annuel respectivement. Les ménages de femmes sans éducation, du milieu rural et ayant souffert d’infection post-partum sont les plus à risque d’encourir des dépenses catastrophiques. La césarienne n’est pas associée à une probabilité réduite de dépense catastrophique malgré la gratuité. Faire des dépenses élevées ne garantie pas la survie de la mère puisque entre 19,4% et 47,1% des décès maternels ont encouru des dépenses catastrophiques. Enfin, les ménages s’endettent et vendent fréquemment des biens pour faire face aux dépenses ce qui créé des difficultés financières importantes à long terme. La création de nouvelles politiques de financement sera nécessaire à l’amélioration de la santé maternelle au Mali.
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
De l’avis de nombreux observateurs, le monde a connu en 2008 une crise économique sans précédent depuis la Grande dépression des années trente. Au premier chef des victimes de ces dérives de l’économie globale figurent les travailleurs du monde entier. Investie depuis 1919 d’un mandat de protection à l’égard de ces derniers, l’Organisation internationale du Travail (OIT) se doit d’être une force de propositions en ces périodes difficiles. La présente étude se propose d’analyser l’évolution des réponses normatives produites par l’OIT au lendemain des crises économiques et financières mondiales depuis sa création. Il s’agira également de mettre en corrélation le degré d’audace de l’Organisation et la composition de la scène internationale qui préside à chacune des époques considérées. Le premier chapitre sera pour nous l’occasion de montrer comment l’OIT, née dans un contexte de crise économique dans les années vingt puis confrontée en 1930 à une autre crise majeure, a su tirer profit de ces situations qui confirment sa raison d’être et la pousse à s’enquérir de nouvelles compétences (chapitre I). Nous ferons ensuite étape dans une époque marquée par la prolifération de nouvelles organisations internationales avec lesquelles l’OIT entre en concurrence : l’ère onusienne. Nous verrons comment la position de l’Organisation sur la scène internationale influe sur sa réactivité face aux crises économiques et politiques du moment (chapitre II). Forts de ces considérations historiques, nous serons enfin à même de comprendre la souplesse normative caractérisant la réaction de l’OIT face à la crise de 2008. Nous serons également en mesure de comprendre comment cette crise historique a modifié l’ordre mondial et influé sur la position de l’Organisation dans l’agencement international (chapitre III).
Resumo:
Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.
Resumo:
L’importance accordée à la reconnaissance des droits fondamentaux des personnes en matière d’intégrité physique et de consentement aux soins dans notre société fait que le travailleur social appelé à participer à l’ouverture de régimes de protection du majeur doit développer une expertise multidimensionnelle. De plus, le travailleur social se retrouve à confronté à différentes logiques d’action (juridique et procédurale, médicale, psychosociale, pragmatique) dont il doit tenir compte dans le processus d’évaluation. Ceci nous amène à aborder la position difficile dans laquelle se trouve généralement le travailleur social qui oscille entre la possibilité de favoriser l’autonomie de la personne et la volonté de protéger celle-ci. L’objectif de ce mémoire est donc d’accroître notre compréhension du processus de prise de décision du travailleur social dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur. D’une manière plus spécifique, cette étude consiste à retracer et à théoriser, par l’analyse de sa logique d’action, le processus à travers lequel le travailleur social se positionne lorsqu’il se retrouve confronté à des dilemmes éthiques par rapport à la détermination de l’inaptitude d’une personne âgée. L’analyse de l’expérience du travailleur social a été réalisée à travers le paradigme de l’individualisme méthodologique tel que définit par Raymond Boudon. Les données furent recueillies lors d’entrevues semi-dirigées réalisées auprès de sept intervenants. Les témoignages recueillis par le biais de cette recherche exploratoire montrent à quel point il peut être difficile et éprouvant pour le travailleur social de devoir se positionner dans la détermination de l’inaptitude d’une personne âgée, dans le cadre des régimes de protection du majeur et comment ces interventions s’inscrivent dans un jeu infiniment complexe d’interactions multiples entre acteurs et actants. Les principaux obstacles à la prise de décision éthique dont ont fait part les travailleurs sociaux interrogés sont liés au contexte de pratique. Il s’agit du manque de ressources financières et humaines disponibles ainsi que le fait que les décisions ne soient pas toujours prises en équipe interdisciplinaire et dans un climat qui soit non menaçant. La reconnaissance de l’expertise des travailleurs sociaux en matière d’ouverture de régimes protection est d’ailleurs ressortie comme un enjeu important.
Resumo:
L’identification des contraintes financières et sociales qui sont sous-entendues dans la situation des personnages amoureux de la comédie de Ménandre – à partir de ses pièces et fragments subsistants et de ses adaptations en langue latine par Térence – permet d’éclairer la rhétorique de séduction ou de dissuasion employée par les divers personnages types de ce genre littéraire. Or, il existe un parallèle étroit entre ces discours et situations dramatiques et l’élégie érotique qui fleurit quelques siècles plus tard à Rome sous la plume de Tibulle, Properce et Ovide. Certains aspects déroutants de la rhétorique de séduction employée par les élégistes sont élucidés lorsqu’on les comprend dans le contexte dramatique de la comédie nouvelle : notamment, le poète narrateur se positionne dans la situation du jeune protagoniste amoureux de la comédie et la bien-aimée à qui il s’adresse se trouve dans la situation de la courtisane indépendante qui figure dans plusieurs pièces comiques. Cette recherche conclut qu’il existe une tension financière entre l’amant élégiaque et sa maîtresse qui, bien qu’elle soit passée sous silence par les poètes, influence les arguments utilisés par le narrateur à son égard et les propos imaginés ou rapportés de sa bien-aimée en retour.
Resumo:
"Jon B. Skjaerseth, professeur associé, Fridtjof Nansen Institute (Norvège), a présenté dans le cadre du panel Gestion des risques environnementaux par les institutions financières, une conférence intitulée ""The evolution and consequences of the EU Emissions Trading System (EU ETS)""."
Resumo:
L’ouvrage constitue la thèse de Doctorat de Monsieur Lauri Railas soutenue le 16 Octobre 2004 à la faculté de droit de l’Université de Helsinki. Expert reconnu en droit du commerce international, son parcours professionnel explique les orientations prises dans son étude et son approche très large des transactions relatives à la vente internationale de marchandises comparativement à d’autres travaux dans le même domaine. L’auteur a été conseiller juridique à l’Institut d’arbitrage de la chambre de commerce centrale finlandaise puis secrétaire général de la section finlandaise de la chambre internationale de commerce. Il a, ensuite, occupé le poste d’administrateur principal au secrétariat général du conseil de l’Union Européenne entre 1996 et 2002. Il est, actuellement, associé senior chez Krogerus & Co, un des plus importants cabinets d’avocats de Finlande. L’originalité de la thèse réside dans le fait qu’elle aborde les transactions relatives à la vente internationale de marchandises du point de vue du commerce électronique. L’étude traite de la création d’un cadre juridique uniforme et cohérent encadrant l’utilisation des instruments du commerce élecronique pour la vente internationale de marchandises en se concentrant, uniquement, sur le commerce électronique entre professionnels (B to B) et plus précisément sur les initiatives des organisations internationales pour en diffuser et en faciliter l’usage. S’inspirant des théories de l’analyse économique du droit, le postulat de départ de Monsieur Railas est que le commerce électronique peut changer les procédures du commerce international et apporter d’importante économie de coûts. Pour ce faire, un cadre juridique pour le commerce électronique et plus généralement les affaires électroniques, est en cours d’élaboration par les organisations internationales. L’étude aborde ces développements dans différents domaines comme la formation du contrat, le crédit documentaire ou encore la résolution des conflits.L’approche est holistique et basée sur les efforts déployés pour introduire des sources uniformes de régulation pour les transactions électroniques dans le commerce international. L’auteur recense un large répertoire de règles de droit qui sont en majorité d’origine internationales avec pour objectif la détermination du rôle que peuvent jouer les communications électroniques dans la passation de contrats de vente de marchandises, leur livraison mais aussi dans le recours au service de tiers dans des fonctions comme le transport, l’assurance-transport et la sécurisation des droits des différentes parties impliquées. L’idée de base étant que la vente internationale et le transport constituent une chaine de contrats et de services interreliés. En plus des règles de droits déjà établies, l’auteur analyse différentes initiatives de régulation novatrices pour le commerce électronique initiées par la CNUDCI notamment. L’ouvrage traite, également, des problématiques générales comme la formation des contrats et la signature électronique. Par ailleurs, l’auteur procède à l’analyse des contrats de vente dans lesquels le vendeur a l’obligation de livrer en plus des marchandises, les documents relatifs aux marchandises et ceux de transfert de propriété. Les marchandises étant soumises à différents droits de propriété, les documents de vente et de transport ont un rôle important à jouer dans l’exercice de ces droits. Enfin, l’auteur considère la procédure de résolution des conflits comme une part du cycle de vie de chaque transaction. L’arbitrage en ligne et les autres méthodes de résolution en ligne des conflits contribuant à la réalisation de transactions électroniques réussies. L’ouvrage peut être particulièrement utile pour les personnes qui s’intéressent à l’harmonisation internationale des droits applicables au commerce international. L’auteur fait une analyse, particulièrement intéressante, de plusieurs instruments et projets comme les E-terms 2004 de la chambre internationale de commerce, le système Boléro, le système TEDI (Trade Electronic Data Interchange) et le système de transactions financières SWIFNet. La finalité de la démarche est de trouver une plate-forme commune qui fasse en sorte que les transactions électroniques puissent être conclues de manière sécuritaire en s’inspirant des résultats tangibles d’harmonisation atteints par la convention de Vienne sur la vente internationale de marchandises et par les principes UNIDROIT mais aussi du consensus selon lequel le commerce électronique doit être gouverné dans une large part par les instruments de « droit mou » comme les codes de conduite, et que, les règlements extrajudiciaires des conflits doivent être utilisés pour les transactions électroniques.
Resumo:
Suite à l’essor des marchés financiers en ligne tant à l’intérieur de l’Union Européenne qu’en Amérique du Nord, les législateurs communautaires ont pris différentes mesures visant à exercer un certain contrôle sur le flux financier découlant de cet essor. Afin de mieux situer le lecteur dans cet amalgame de textes juridiques, l’auteur de cet article dresse un portrait exhaustif des différentes lois, directives et conventions applicables aux services financiers en ligne. Le domaine des services financiers n’échappant pas à l’aspect international du réseau Internet, la problématique de l’assujettissement de sites nord-américains au droit communautaire demeure d’un grand intérêt. Comme le souligne l’auteur, malgré le fait que certains joueurs ne devrait pas, à première vue être soumis au droit communautaire, les autorités de l’Union Européennes justifient leur occupation de la compétence par rapport aux activités financières en ligne en raison de leur intérêt pour la réalisation du marché unique. En partant de ce constat, l’auteur aborde exhaustivement les différents textes juridiques de droit européen pouvant accorder un recours quelconque au consommateur désirant obtenir des services financiers en ligne, peu importe l’origine géographique du site, notamment la très récente Directive 2002/65/CE du Parlement européen et du Conseil du 23 septembre 2002 concernant la commercialisation à distance de services financiers auprès des consommateurs, et modifiant les directives 90/619/CEE du Conseil, 97/7/CE et 98/27/CE. Ce nouveau texte prévoit, entre autres, que les protections accordées au consommateurs ne peuvent êtres outrepassées même lorsque la loi applicable au contrat est celle d’un pays tiers à condition que ledit consommateur soit résident d’un État membre de la Communauté et que le contrat ait des liens de rattachement proches avec la Communauté.
Resumo:
"Alexandra Pasca est étudiante en 3eme année au baccalauréat en droit. Cet article a été rédigé antérieurement à l'adoption du Projet de Loi no9 Loi modifiant le Code de procédure civile pour prévenir l’utilisation abusive des tribunaux et favoriser le respect de la liberté d’expression et la participation des citoyens aux débats publics (mai 2009). Au cours de la dernière année, la couverture médiatique a mis en évidence l’émergence d'un nouveau phénomène connu sous le nom de « SLAPP », aussi appelé, au Québec, poursuites-bâillons. Les poursuites-bâillons englobent une multitude de situations diverses, mais qui ont toutes la même caractéristique : ce sont essentiellement des procédures judiciaires longues et coûteuses intentées en vue de décourager, de neutraliser, voire d’intimider ou de censurer les individus et les groupes engagés dans la dénonciation publique. Les cas généralement rencontrés mettent en scène une compagnie engageant des poursuites aux montants faramineux pour atteinte à la réputation, soit pour diffamation, contre des militants engagés dans une cause socio-économique, environnementale ou culturelle, soit contre des individus prenant partie dans le cadre d’un enjeu public. Tel fut le cas notamment dans l’affaire intentée par le ferrailleur American Iron & Metal (AIM) contre les militants de l’Association de lutte contre la pollution atmosphérique (AQLPA) ou de la poursuite contre les auteurs et la maison d’édition du livre Noir Canada. Les suites de ces dossiers témoignent du fait que le recours aux tribunaux peut être utilisé comme un moyen de retirer de l’espace public la discussion de certains enjeux importants en limitant le débat dans une arène moins médiatisée : les tribunaux. Cependant, la conséquence qui découle de cette tactique n’est pas toujours celle recherchée. Ces situations soulèvent différents problèmes dont, entres autres, l’instrumentalisation politique du pouvoir judiciaire, l’inégalité des ressources matérielles et financières devant les tribunaux et l’équilibre entre le droit à la protection de la réputation et le droit à la liberté d’expression. En effet, opposant deux valeurs fondamentales de notre société démocratique, la question de la balance de ces droits se pose inévitablement. Laquelle soulève à son tour différentes questions, à savoir le droit à la réputation pour les personnes morales; la diffamation, ses conditions d’existence et les facteurs dont il faut tenir compte dans l’évaluation d’une atteinte à la réputation; l’importance et l’étendue du droit à la réputation et du droit à la liberté d’expression, ainsi que les limites de ces deux droits et la défense du « commentaire loyal »."
Resumo:
Les avancées technologiques liées à l’internet ont permis une démocratisation des outils de communication et une transformation des relations interpersonnelles. L’impact de ces changements s’est ressenti autant dans la sphère légitime que dans les marchés criminels. Ces derniers ont migré, au cours des dernières années, vers des plateformes en ligne qui leur permettent de mieux gérer les risques associés avec leurs activités illégales. Cette thèse s’intéresse à l’impact de l’internet sur la criminalité et sur l’adaptation des criminels à cet environnement virtuel. Ces derniers forment maintenant des communautés en ligne et gardent le contact entre eux à l’aide de salles de clavardage et de forums de discussions. Nous nous intéresserons dans cette thèse à trois formes particulières de crime soit la fraude de propriété intellectuelle (la scène des warez), le piratage d’ordinateurs (les botnets) ainsi que la fraude de données personnelles et financières (le carding). Chacune de ces formes de crime sera analysée à l’aide d’un article publié ou présentement en évaluation. L’article sur la scène des warez décrit l'organisation sociale ainsi que la distribution de la reconnaissance dans la communauté des pirates informatiques. Les systèmes de délinquance (Sutherland, 1947) et l’individualisme réseauté (Boase & Wellman, 2006) sont utilisés pour théoriser l'organisation sociale et la distribution de la reconnaissance dans la scène warez. L’article sur les botnets tente de comprendre la distribution de la réputation dans une communauté de criminels. En utilisant les données d’un forum de discussion où des botmasters louent et achètent des biens et services illégaux, cette recherche modélise les facteurs qui permettent d’augmenter le niveau de réputation de certains acteurs. Finalement l’article sur le carding mesure le lien entre la réputation telle que développée par Glückler & Armbrüster (2003) et la performance criminelle. Notre thèse démontre que l’internet a eu un effet transformateur sur la criminalité à six niveaux : 1) l’augmentation de la facilité à trouver des co-criminels; 2) l’augmentation de la compétition entre les criminels; 3) l’augmentation du nombre de victimes; 4) la diminution des risques d’arrestation; 5) l’augmentation du taux de réussite des criminels et; 6) les changements dans l’équilibre entre criminels, victimes et protecteurs. Elle nous permet également de démontrer l’importance de la réputation, le capital virtuel, dans les marchés criminels en ligne.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.