1000 resultados para Prévision des séries temporelles


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les précipitations journalières extrêmes centennales ont été estimées à partir d'analyses de Gumbel et de sept formule empiriques effectuées sur des séries de mesures pluviométriques à 151 endroits de la Suisse pour deux périodes de 50 ans. Ces estimations ont été comparées avec les valeurs journalières maximales mesurées durant les 100 dernières années (1911-2010) afin de tester l'efficacité de ces sept formules. Cette comparaison révèle que la formule de Weibull serait la meilleure pour estimer les précipitations journalières centennales à partir de la série de mesures pluviométriques 1961-2010, mais la moins bonne pour la série de mesures 1911-1960. La formule de Hazen serait la plus efficace pour cette dernière période. Ces différences de performances entre les formules empiriques pour les deux périodes étudiées résultent de l'augmentation des précipitations journalières maximales mesurées de 1911 à 2010 pour 90% des stations en Suisse. Mais les différences entre les pluies extrêmes estimées à partir des sept formules empiriques ne dépassent pas 6% en moyenne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les précipitations journalières extrêmes ont été estimées pour un temps de retour de 500 ans à partir d'analyses de Gumbel effectuées sur des séries de mesures pluviométriques à 429 endroits de la Suisse pour la période 1961-2010. Ces estimations aboutissent à de bons résultats pour la plupart des stations dans ce pays. Les précipitations cincentennales ainsi déterminées sont en moyenne 15% plus élevées que celles obtenues à partir d'analyses semblables faites sur des séries de mesures pour la période 1901-1970. Ceci confirme que les précipitations extrêmes tendent à augmenter durant le 20ème siècle en Suisse comme ailleurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une fois déposé, un sédiment est affecté au cours de son enfouissement par un ensemble de processus, regroupé sous le terme diagenèse, le transformant parfois légèrement ou bien suffisamment pour le rendre méconnaissable. Ces modifications ont des conséquences sur les propriétés pétrophysiques qui peuvent être positives ou négatives, c'est-à-dire les améliorer ou bien les détériorer. Une voie alternative de représentation numérique des processus, affranchie de l'utilisation des réactions physico-chimiques, a été adoptée et développée en mimant le déplacement du ou des fluides diagénétiques. Cette méthode s'appuie sur le principe d'un automate cellulaire et permet de simplifier les phénomènes sans sacrifier le résultat et permet de représenter les phénomènes diagénétiques à une échelle fine. Les paramètres sont essentiellement numériques ou mathématiques et nécessitent d'être mieux compris et renseignés à partir de données réelles issues d'études d'affleurements et du travail analytique effectué. La représentation des phénomènes de dolomitisation de faible profondeur suivie d'une phase de dédolomitisation a été dans un premier temps effectuée. Le secteur concerne une portion de la série carbonatée de l'Urgonien (Barrémien-Aptien), localisée dans le massif du Vercors en France. Ce travail a été réalisé à l'échelle de la section afin de reproduire les géométries complexes associées aux phénomènes diagénétiques et de respecter les proportions mesurées en dolomite. De plus, la dolomitisation a été simulée selon trois modèles d'écoulement. En effet, la dédolomitisation étant omniprésente, plusieurs hypothèses sur le mécanisme de dolomitisation ont été énoncées et testées. Plusieurs phases de dolomitisation per ascensum ont été également simulées sur des séries du Lias appartenant aux formations du groupe des Calcaire Gris, localisées au nord-est de l'Italie. Ces fluides diagénétiques empruntent le réseau de fracturation comme vecteur et affectent préférentiellement les lithologies les plus micritisées. Cette étude a permis de mettre en évidence la propagation des phénomènes à l'échelle de l'affleurement. - Once deposited, sediment is affected by diagenetic processes during their burial history. These diagenetic processes are able to affect the petrophysical properties of the sedimentary rocks and also improve as such their reservoir capacity. The modelling of diagenetic processes in carbonate reservoirs is still a challenge as far as neither stochastic nor physicochemical simulations can correctly reproduce the complexity of features and the reservoir heterogeneity generated by these processes. An alternative way to reach this objective deals with process-like methods, which simplify the algorithms while preserving all geological concepts in the modelling process. The aim of the methodology is to conceive a consistent and realistic 3D model of diagenetic overprints on initial facies resulting in petrophysical properties at a reservoir scale. The principle of the method used here is related to a lattice gas automata used to mimic diagenetic fluid flows and to reproduce the diagenetic effects through the evolution of mineralogical composition and petrophysical properties. This method developed in a research group is well adapted to handle dolomite reservoirs through the propagation of dolomitising fluids and has been applied on two case studies. The first study concerns a mid-Cretaceous rudist and granular platform of carbonate succession (Urgonian Fm., Les Gorges du Nan, Vercors, SE France), in which several main diagenetic stages have been identified. The modelling in 2D is focused on dolomitisation followed by a dédolomitisation stage. For the second study, data collected from outcrops on the Venetian platform (Lias, Mont Compomolon NE Italy), in which several diagenetic stages have been identified. The main one is related to per ascensum dolomitisation along fractures. In both examples, the evolution of the effects of the mimetic diagenetic fluid on mineralogical composition can be followed through space and numerical time and help to understand the heterogeneity in reservoir properties. Carbonates, dolomitisation, dédolomitisation, process-like modelling, lattice gas automata, random walk, memory effect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le cinéma des premiers temps, c'est-à-dire la production des deux premières décennies du cinéma, majoritairement caractérisée par des plans autonomes, des histoires courtes et un cadre fixe, n'a essentiellement connu d'études esthétiques que sous un angle narratologique, centrées notamment sur les prémisses du montage. Cette thèse déplace le regard - ou plus simplement le convoque -, en proposant de faire sa place à l'image. Car à qui sait les regarder, les premiers films dévoilent une parenté picturale jusqu'alors ignorée. Les images du cinéma des premiers temps - alors significativement appelées « tableaux » - se sont en effet définies à l'aune de la peinture, et même plus précisément par une imitation littérale des oeuvres d'art. Cette étude révèle que le tableau vivant, défini dans les termes stricts de la reconstitution d'une composition picturale par des acteurs vivants (que ceux-ci tiennent la pose ou non), est au fondement d'une esthétique du film des premiers temps. L'argument est structuré par les illustrations que l'auteure exhume (et compare, à la manière d'un spectaculaire et vivant jeu des 7 différences) parmi cette production filmique majoritairement disparue, brûlée, effacée, et ces références picturales aujourd'hui perdues, dénigrées, oubliées... Néanmoins ce ne sont pas quelques exemples isolés, mais un vrai phénomène historique qui est mis au jours à travers un corpus de films traversant tous les genres du cinéma des premiers temps, et prouvant que les productions du Film d'Art et des séries d'art ou le film Corner in Wheat (D.W. Griffith, 1909), souvent tenus comme un commencement, consistent bien plus en un aboutissement de cette tradition qui consiste à créer des images filmiques sous forme de tableaux vivants. Traçant d'abord ses « contexte et contours », le texte montre que la reconstitution picturale hante toutes les formes de spectacle à l'heure de l'émergence du cinéma. Les scènes de l'époque cultivent internationalement une esthétique de tableau vivant. Et la scène n'a pas l'exclusivité du phénomène : le médium photographique, dès son apparition, s'approprie le procédé, pour (chose jusqu'alors impossible) documenter l'effet visuel de ces reconstitutions, mais aussi pour les réinventer, en particulier pour se légitimer en tant que moyen artistique capable de rivaliser avec la peinture. Le cinéma émergent procède à une appropriation similaire du tableau vivant, qui fait le coeur de ce travail en y étant analysée selon quatre axes théoriques : Reproduire - où l'on découvre le caractère fondamentalement indirect de la filiation picturale de ces tableaux vivants, pris dans une dynamique de reproduction intermédiale qui en fait de véritables exercices de style, par lesquels les producteurs expérimentent et prennent conscience des moyens .artistiques de l'image filmique - ; Réincarner - où l'on étudie les problématiques engagées par la « mise en vie », et plus précisément la « mise en corps » des figures picturales (en particulier de Jésus et du nu), impliquant des enjeux de censure et un questionnement du regard sur l'art, sur le corps, et sur le statut de ces images qui semblent plus originales que l'original - ; Réanimer - où l'on examine la manière dont le cinéma mouvemente la peinture, en remettant la composition en action, en en redéployant l'instant prégnant, en expérimentant la pose gestuelle, l'arrêt du photogramme et tout le spectre de la temporalité cinématographique - ; enfin Recadrer - où l'on analyse le cadrage de ces tableaux repensés à l'aune de la caméra et de l'écran, qui nécessitent de complexifier les catégories théoriques baziniennes, et qui font émerger le tableau vivant comme un lieu de cristallisation d'une image filmique tabu/aire, offrant une résistance au montage linéaire. Or cette résistance se vérifiera jusque dans les films très contemporains, qui, en réactualisant le motif du tableau vivant, briseront la linéarité narrative du montage et feront rejaillir le poids artistique de l'image - ravivant en cela une esthétique fondatrice du cinéma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les biomarqueurs plasmatiques constituent des outils essentiels, mais rares, utilisés pour diagnostiquer les maladies, comme les maladies cardiovasculaires (MCV), et stratifier le niveau de risque associé. L’identification de nouveaux biomarqueurs plasmatiques susceptibles d’améliorer le dépistage et le suivi des MCV représente ainsi un enjeu majeur en termes d’économie et de santé publique. Le projet vise à identifier de nouveaux biomarqueurs plasmatiques prédictifs ou diagnostiques des MCV, à déterminer le profil protéomique plasmatique de patients atteints de MCV et à développer des méthodes innovantes d’analyse d’échantillon plasmatique. L’étude a été effectuée sur une large banque de plasma provenant de 1006 individus de souche Canadienne-Française recrutés à différents stades de la MCV et qui ont été suivis sur une période de 5 ans. Des séries de déplétions ont été réalisées afin de dépléter les 14 protéines majoritaires (colonne IgY14TM) de l’échantillon avant son analyse par trois approches effectuées en parallèle: 1) Une chromatographie liquide (LC) en 2 dimensions qui fractionne les protéines selon le point isoélectrique puis selon le degré d’hydrophobicité, via le système PF2D, suivie par une chromatographie liquide couplée avec une spectrométrie de masse en tandem (LC-MS/MS). 2) Une séparation classique sur gel 1D-SDS-PAGE suivie d’une LC-MS/MS; 3) Par une déplétion plus poussée du plasma avec l’utilisation en tandem avec la colonne IgY14TM d’une colonne SupermixTM permettant de dépléter également les protéines de moyenne abondance, suivie d’une séparation sur gel 1D-SDS-PAGE et d’une analyse LC-MS/MS de la portion déplétée (3a) et de la portion liée à la SupermixTM (3b). Les résultats montrent que le système PF2D permet d’identifier plusieurs profils protéiques spécifiques au groupe MCV. Sur un total de 1156 fractions (équivalent à 1172 pics protéiques pour le groupe contrôle et 926 pics pour le groupe MCV) recueillies, 15 fractions (23 pics protéiques) présentaient des différences quantitativement significatives (p<0,05) entre les 2 groupes. De plus, 6 fractions (9 pics) sont uniquement présentes dans un groupe, représentant d’autres signatures protéomiques et biomarqueurs potentiellement intéressants. Les méthodes 2, 3a et 3b ont permis l’identification de 108, 125 et 91 protéines respectivement avec des chevauchements partiels (31% entre la méthode 2 et 3a, 61% entre 2 et 3b et 19% entre 3a et 3b). Les méthodes 2 et 3 ont permis l’identification de 12 protéines qui présentaient des différences quantitatives significatives entre les 2 groupes. L’utilisation de plusieurs approches protéomiques complémentaires nous ont d’ores et déjà permis d’identifier des candidats biomarqueurs des angines instables avec récidive d’infarctus du myocarde (IM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs. L’objectif de ce mémoire est de parfaire nos connaissances quant à l’effet des actions policières sur les collisions routières au Québec. Ultimement, ce mémoire permettra d’identifier les conditions nécessaires pour que l’action policière influe sur les comportements des automobilistes. Pour se faire, deux études de cas sont employées. Dans un premier temps, nous évaluons l’effet d’un relâchement d’environ 60 % dans l’émission de constats d’infraction par les policiers de la ville de Québec sur les collisions avec blessures. Dans cet article, nous distinguons également les effets respectifs des constats d’infraction, des interceptions policières sans constat et des médias. Dans un second temps, nous évaluons l’impact d’une stratégie de sécurité routière mise en place conjointement par l’Association des directeurs de police du Québec (ADPQ) et la Société de l’assurance automobile du Québec (SAAQ). Dans les deux cas, un changement important est survenu dans l’émission de constats d’infraction émis en vertu du Code de la sécurité routière (CSR). Méthodologie. Afin d’évaluer l’effet de ces deux stratégies, nous avons agrégé les données sur les collisions et infractions au CSR sur une base mensuelle. Ces données proviennent principalement des rapports de collisions et des constats d’infraction remplis par les policiers et transmis à la SAAQ. Dans l’ensemble, nous avons utilisé un devis quasi-expérimental, soit celui des séries chronologiques interrompues. Résultats. Les résultats des deux articles démontrent que les policiers sont des acteurs clés en matière de sécurité routière. Les collisions avec blessures sont affectées par les fluctuations de leurs activités. La première série d’analyses établit qu’un relâchement d’environ 60 % dans le nombre de constats émis par les policiers se traduit par une hausse d’environ 10 % des collisions avec blessures, ce qui correspond à 15 collisions avec blessures supplémentaires par mois sur le territoire du Service de police de la ville de Québec. De plus, nos résultats montrent qu’une interception policière suivie d’un avertissement verbal n’est pas suffisante pour prévenir les collisions. De même, l’effet observé n’est pas attribuable aux médias. La deuxième série d’analyse montre que la stratégie conjointe de l’ADPQ et de la SAAQ, caractérisée par une hausse des constats émis et des campagnes médiatiques, fut suivie de baisses variant entre 14 et 36 % des collisions avec blessures graves. Interprétation. Les résultats démontrent que les actions policières ont une influence sur le bilan routier. Par contre, avant d’influer sur le comportement des automobilistes, certaines conditions doivent être respectées. Premièrement, l’intensité des contrôles policiers doit être suffisamment modifiée par rapport à son niveau initial. Deuxièmement, que ce soit une hausse ou une baisse, ce niveau doit être maintenu sur une période relativement longue (entre 12 et 24 mois environ) pour que les automobilistes soient exposés au message pénal et qu’ils considèrent ce changement dans le niveau de répression comme étant crédible. Troisièmement, l’émission de constats est un élément clé; la simple présence policière n’est pas suffisante pour prévenir les collisions. Enfin, les campagnes de sensibilisation semblent importantes, mais d’autres études sont nécessaires pour mieux apprécier leur rôle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours du siècle dernier, nous avons pu observer une diminution remarquable de la mortalité dans toutes les régions du monde, en particulier dans les pays développés. Cette chute a été caractérisée par des modifications importantes quant à la répartition des décès selon l'âge, ces derniers ne se produisant plus principalement durant les premiers âges de la vie mais plutôt au-delà de l'âge de 65 ans. Notre étude s'intéresse spécifiquement au suivi fin et détaillé des changements survenus dans la distribution des âges au décès chez les personnes âgées. Pour ce faire, nous proposons une nouvelle méthode de lissage non paramétrique souple qui repose sur l'utilisation des P-splines et qui mène à une expression précise de la mortalité, telle que décrite par les données observées. Les résultats de nos analyses sont présentés sous forme d'articles scientifiques, qui s'appuient sur les données de la Human Mortality Database, la Base de données sur la longévité canadienne et le Registre de la population du Québec ancien reconnues pour leur fiabilité. Les conclusions du premier article suggèrent que certains pays à faible mortalité auraient récemment franchi l'ère de la compression de la mortalité aux grands âges, ère durant laquelle les décès au sein des personnes âgées tendent à se concentrer dans un intervalle d'âge progressivement plus court. En effet, depuis le début des années 1990 au Japon, l'âge modal au décès continue d'augmenter alors que le niveau d'hétérogénéité des durées de vie au-delà de cet âge demeure inchangé. Nous assistons ainsi à un déplacement de l'ensemble des durées de vie adultes vers des âges plus élevés, sans réduction parallèle de la dispersion de la mortalité aux grands âges. En France et au Canada, les femmes affichent aussi de tels développements depuis le début des années 2000, mais le scénario de compression de la mortalité aux grands âges est toujours en cours chez les hommes. Aux États-Unis, les résultats de la dernière décennie s'avèrent inquiétants car pour plusieurs années consécutives, l'âge modal au décès, soit la durée de vie la plus commune des adultes, a diminué de manière importante chez les deux sexes. Le second article s'inscrit dans une perspective géographique plus fine et révèle que les disparités provinciales en matière de mortalité adulte au Canada entre 1930 et 2007, bien décrites à l'aide de surfaces de mortalité lissées, sont importantes et méritent d'être suivies de près. Plus spécifiquement, sur la base des trajectoires temporelles de l'âge modal au décès et de l'écart type des âges au décès situés au-delà du mode, les différentiels de mortalité aux grands âges entre provinces ont à peine diminué durant cette période, et cela, malgré la baisse notable de la mortalité dans toutes les provinces depuis le début du XXe siècle. Également, nous constatons que ce sont précisément les femmes issues de provinces de l'Ouest et du centre du pays qui semblent avoir franchi l'ère de la compression de la mortalité aux grands âges au Canada. Dans le cadre du troisième et dernier article de cette thèse, nous étudions la longévité des adultes au XVIIIe siècle et apportons un nouvel éclairage sur la durée de vie la plus commune des adultes à cette époque. À la lumière de nos résultats, l'âge le plus commun au décès parmi les adultes canadiens-français a augmenté entre 1740-1754 et 1785-1799 au Québec ancien. En effet, l'âge modal au décès est passé d'environ 73 ans à près de 76 ans chez les femmes et d'environ 70 ans à 74 ans chez les hommes. Les conditions de vie particulières de la population canadienne-française à cette époque pourraient expliquer cet accroissement.