9 resultados para Infractions économiques--Droit--Canada
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Les années soixante-dix furent décidément, on peut le dire, celles du triomphe du monétarisme. La conjoncture économique venait à peine de le sortir de l'ombre, avec la stagflation qui reléguait dorénavant au second plan le principe d'un arbitrage durable entre l'inflation et le chômage "combattu" par les monétaristes, que les autorités monétaires des pays industrialisés faisaient des principes monétaristes le point de mire de la politique économique au milieu de la décennie. En effet face à l'inflation aiguë qui sévissait à cette période, ces pays décidaient non seulement de donner dorénavant la priorité à la lutte contre l'inflation, mais décidaient aussi de centrer la politique monétaire sur l'annonce d'objectifs de croissance de la masse monétaire à long terme plutôt que sur des considérations liées aux événements purement conjoncturels. L'intention, disent-ils, était de rendre moins incertain l'environnement des agents économiques et de rendre la politique monétaire plus claire et plus crédible. Ceci a suffi à l'opinion publique et aux économistes pour qualifier tout de go cette prise de position d'"adhésion au monétarisme") ainsi Hilton Friedman disait "cela a pour résultat final l'adhésion, au moins verbale, d'un grand nombre de banques centrales du monde à ce qu'il est maintenant convenu d'appeler une politique monétariste". […]
Resumo:
Résumé : La Loi concernant les soins de fin de vie ainsi que la mise en place du régime des directives médicales anticipées sont le résultat d’une profonde transformation sociétale, guidée par l’importance grandissante du respect de l’autonomie décisionnelle des personnes et à leur droit à l’autodétermination. Au regard de ce contexte, cet essai décrit en première partie l’état du droit actuel en matière de volontés exprimées de manière anticipée, il analyse les enjeux qui s’y rapportent tout en soulevant les pistes de réflexion déjà amorcées en droit québécois. Il existe effectivement de nombreux outils qui permettent à un individu d’exprimer ses volontés en prévision de son inaptitude, mais les directives médicales anticipées se distinguent d’une façon bien précise : elles possèdent un caractère contraignant qui reconnaît la primauté des volontés relatives aux soins. Or, parallèlement à cela, le régime des directives médicales anticipées impose des limites à ce droit. Dans ce contexte d’essor du droit à l’autonomie, cet essai étudie, en seconde partie, les limites inhérentes au régime des directives médicales anticipées puis propose une analyse critique des défis liés à l’opérationnalisation clinique de ces directives.
Resumo:
L’objectif de cet essai est de recommander des solutions alternatives aux méthodes de déglaçage présentement utilisées au Québec et au Canada. Actuellement, les routes hivernales sont maintenues sécuritaires grâce à l’épandage de sels de voirie et d’abrasifs. Le chlorure de sodium et le chlorure de calcium sont les plus utilisés sur les routes, en partie en raison de leurs faibles coûts. Or, les impacts négatifs d’une libération massive d’ions chlorure dans l’environnement sont nombreux. La perturbation de l’équilibre osmotique du sol menant à un dérèglement végétal, l’augmentation de la salinité de l’eau nuisant aux organismes aquatiques vertébrés et l’érosion accélérée du sol n’en sont que quelques-unes. En prime, les répercussions économiques reliées à la corrosion des véhicules et des structures routières, telles que les ponts et viaducs, causées par l’épandage de sels de voirie sont importantes. Ainsi, l’utilisation de méthodes alternatives peut limiter les impacts engendrés par les sels de voirie. Les recommandations sont divisées en deux catégories. D’une part, des recommandations sont formulées en lien avec l’épandage de produits de remplacements aux sels de voirie. L’exploitation du potentiel de l’extrait de betterave est suggérée. L’entretien hivernal des ponts et viaducs à l’aide de produits non corrosifs tels que les acétates est proposé, tout comme le traitement des piles d’abrasifs avec un produit comportant un pourcentage d’extrait de maïs. D’autre part, des recommandations concernant l’optimisation des méthodes employées et les visions environnementales à adopter en entretien hivernal sont formulées. Elles consistent à augmenter le nombre de villes québécoises participantes à la Stratégie québécoise pour une gestion environnementale des sels de voirie et de villes canadiennes éligibles au Code de pratique pour la gestion des sels de voirie, de miser en premier lieu sur l’amélioration des méthodes d’entretien hivernal dans les zones vulnérables prioritaires, de prendre en compte le cycle de vie des composés alternatifs et enfin d’effectuer une réduction à la source des émissions de sels de voirie dans l’environnement. Enfin, puisqu’aucune solution idéale n’existe, la solution réside en l’amélioration des méthodes actuelles et l’utilisation d’une combinaison d’alternatives, chacune jouant un rôle dans une situation qui lui est propre pour atténuer des impacts causés par l’épandage de sels de voirie.
Resumo:
This interdisciplinary study examines the contribution that a book-review magazine makes to the cultural identity of its readers. It is the result of reflections on the cultural work of Books in Canada , on whether or not this periodical was a cultural worksite and if that is the case how it performed that cultural work. In addition, it interrogates factors that may have contributed to the magazine's demise. The study affirms that Books in Canada, a cultural enterprise from 1971 to 2008, mirrored and helped to shape book and literary culture in Canada through its circulation, through the personalities of its editors, through its front covers and through its reviewers and their reviews. Furthermore, it proposes that the demise of the enterprise was due to a combination of factors. The study begins with an introduction to book reviewing and special-interest magazines. Chapter I examines the interplay between selected visual and textual contents published in Books in Canada in its founding years. These components reflected and helped to fuel the cultural nationalism that was sweeping Canada subsequent to the 1967 World's Fair in Montreal. There were also persistent rumours and comments about the magazine that caused certain"cracks in the foundation" to appear. Chapter II compares the aims and editorial challenges of Val Clery, founder of Books in Canada , with those of Adrien Thério, founder of Lettres québécoises, and of the editors of the magazines' twentieth-anniversary issues, Paul Stuewe in the case of the former and André Vanasse in the case of the latter. Evidence in the content of the magazine, editorial and otherwise, indicated that the"contracts" that the editors made with their readers over the years were similar, to reflect and shape a cultural identity, but the result of their"projects," that is, the nature of those identities, was distinctly different. Evidently then, personal aims, preferences and political leanings of editors can have a major impact on the content of a book-review magazine and thus on the cultural work that it does. Therefore, in Chapter III, I focus on selected contents published during the tenures of two of Books in Canada 's key editors, Paul Stuewe and Olga Stein, in order to understand ways that their choices constituted a form of cultural work. The second part of this chapter moves from an analysis of the cultural work of editors to an examination of the cultural work of reviewers. Here, through a close-reading of a selection of reviews published in Books in Canada, and in other periodicals, I argue that reviewers do cultural work in the way that they negotiate their presence in a review, and in how they signal that presence through lexical choices and through the degree of intellectual interaction that they invite. Intellectual interaction is at the core of Chapter IV.This chapter consists of close readings of some of the"billboards" of the enterprise, that is, the front covers of Books in Canada , in order to show how these important components do cultural work by requiring readers to make an intellectual leap from image to text. Chapter V suggests that book reviews, the company's"bills of goods," do cultural work in much the same way as the paratexts of a book. One of my own reviews is offered as a case-study along with a number of other reviews of how central components of a book-review magazine do cultural work through the illocutionary force of their sentences. The first part of Chapter VI, the final chapter, measures the legacy of the magazine, in particular, the annual Books in Canada First Novel Award. Created in 1976, this prize is awarded to the author of the novel judged by a Books in Canada prize committee to be the best first novel in English of the year. The second part of Chapter VI sheds light on factors that may have contributed to the closure of the enterprise, including the copyright uproar that accompanied the agreement that Adrian Stein, publisher of Books in Canada and Olga Stein's husband, made in 2001 with the online book merchant, Amazon.com. Furthermore, this penultimate section of the study suggests that one of the most important factors in the magazine's demise was the decision by the Steins to exploit their position as owners, publisher, and editor of a book-review periodical, a government-subsidized one at that, to publish their own lengthy pre-trial defense of Conrad Black. The chapter then zooms back from the particular to the general with a broader consideration of the impact of technology and globalization on the book industry and on the ability of Books in Canada to survive in any form, print or digital.
Resumo:
L’objectif général de cet essai est de proposer des solutions qui facilitent la réduction du gaspillage alimentaire dans l’industrie agroalimentaire au Québec. Le gaspillage alimentaire se produit à toutes les étapes de la chaîne agroalimentaire. Les pertes économiques sont énormes. Chaque jour, des tonnes de denrées comestibles sont jetées, alors que plusieurs personnes ne mangent pas à leur faim. Le gaspillage alimentaire provoque une importante utilisation inutile de ressources naturelles et une grande pollution environnementale. L’analyse de la problématique du gaspillage alimentaire a permis de constater que ce phénomène est peu étudié au Québec. Le gouvernement québécois n’est pas assez impliqué dans la lutte au gaspillage alimentaire. Les actions gouvernementales prévues ont été retardées. Des solutions étrangères de réductions des pertes alimentaires ont été analysées pour déterminer leur pertinence pour le Québec. La belle province fait piètre figure si elle est comparée à certains États et à son homologue canadien la Nouvelle-Écosse. Les conclusions de l’essai montrent qu’une réduction efficace du gaspillage alimentaire au Québec passe par la mise en place d’actions concrètes dans les secteurs public et privé. Dans l’industrie agroalimentaire, les critères esthétiques pour les aliments et la mise au rebut des produits moins frais sont les axes d’intervention à privilégier. Dans le domaine public, la législation est le moyen priorisé pour l’atteinte des objectifs québécois en matière de détournement des résidus organiques. Les initiatives proposées à l’industrie agroalimentaire sont des options très intéressantes, car elles deviennent rapidement profitables. Il est conseillé au ministère du Développement durable, de l'Environnement et de la Lutte contre les changements climatiques d’aller de l’avant avec son projet de loi interdisant l’enfouissement des résidus putrescibles. Revenu Québec devrait changer la réglementation pour rendre le don alimentaire plus profitable pour les entreprises. La modification des champs d’application du double système de datation canadien par Santé Canada faciliterait l’interprétation de la date de péremption.
Resumo:
Résumé : De même degré d’importance que les paramètres de formulation, les conditions de consolidation sont des facteurs déterminants pour la durabilité des bétons conventionnels vibrés. Dans le cas des bétons autoplaçants (BAP), grâce à leur grande fluidité, la mise en place dans les coffrages a lieu par écoulement libre sous l’effet de leur poids propre. Leur consolidation se fait sans vibration grâce à leurs caractéristiques rhéologiques. Il est donc légitime de penser que les caractéristiques rhéologiques des BAP peuvent avoir une influence importante sur les propriétés qui déterminent la durabilité. Cette thèse étudie les liens possibles entre les caractéristiques rhéologiques des BAP et leur durabilité vis-à-vis du transport des agents agressifs. Dix-sept formulations de BAP couvrant une large gamme de caractéristiques rhéologiques et se différenciant uniquement par leur dosage en adjuvants ont été étudiées à cet effet. Trois modèles rhéologiques classiques ont été mis en œuvre pour la détermination des paramètres rhéologiques des bétons étudiés. L’essai de sorptivité et dans une moindre mesure l’essai de carbonatation accélérée ont été utilisés comme indicateur de durabilité vis-à-vis du transport des agressifs. La durabilité de la couche superficielle au contact respectivement avec le coffrage en bois et en PVC a été étudiée et les résultats ont été comparés à la durabilité du béton à cœur. Cette étude a été faite en tenant compte des échanges hydriques et de l’arrangement granulaire au droit du coffrage. D’autre part, l’étude de la durabilité de la couche superficielle dans des conditions de mise en place proches du chantier a été faite sur 6 poutres partiellement armées longues de 2 m ainsi que sur 3 bétons semi-autoplaçants légèrement vibrés. Les résultats montrent qu’il existe une corrélation forte entre la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley et la sorptivité. Très probablement, la viscosité agit sur le volume relatif des pores capillaires de gros diamètres. L’étude spécifique de la couche superficielle a montré que sa sorptivité dépend du type de coffrage utilisé à cause des éventuels échanges hydriques opérés entre le béton et la surface du coffrage. De plus, l’arrangement granulaire au droit du coffrage est également influencé. Ainsi, la sorptivité de la couche superficielle au contact du PVC est proche mais inférieure à celle du béton à cœur. La sorptivité de la couche superficielle au contact du bois est significativement inférieure à celle de la couche superficielle au contact du PVC tout en restant corrélé avec la viscosité plastique du modèle Bingham modifié ou le coefficient de consistance du modèle Herschel-Bulkley.
Resumo:
Le présent essai est l'aboutissement d'une réflexion sur la place qu'occupe le libre accès dans la communauté scientifique. Bien que le libre accès ne constitue pas en soi une nouveauté, il occupe une place relativement marginale. L'auteur s'est d'abord penché sur l'évolution du libre accès dans le monde avant d'entreprendre une recherche terrain a l'Université de Sherbrooke pour mesurer l'intérêt et les connaissances de la communauté de recherche. Au terme de cette recherche, l'auteur a produit une analyse à partir des données qu'il a récoltées. Des recommandations ont par la suite été produites à l'intention de la direction du Service des bibliothèques et archives (SBA) dans le but de promouvoir le libre accès, porteur selon l'auteur d'économies potentielles pour les universités et d'une plus grande accessibilité au savoir autant pour les chercheurs que pour le grand public. Voici un bref aperçu desdites recommandations: Recommandation 1: Mettre sur pied une séance d'information et une brochure présentant le libre accès aux professeurs et aux étudiants de l'Université de Sherbrooke. Recommandation 2: Encourager les facultés à faire en sorte que soient déposés sur Savoirs UdeS les articles publiés par les professeurs. Recommandation 3: Entamer un dialogue personnalise avec les représentants de l'ensemble des facultés de l'Université de Sherbrooke pour établir la voie verte au libre accès. Recommandation 4: Assurer la synergie des dépôts institutionnels des universités québécoises. Recommandation 5: Assurer la défense des intérêts universitaires par un réseautage auprès des organismes subventionnaires.
Resumo:
BACKGROUND: To plan and implement services to persons who inject drugs (PWID), knowing their number is essential. For the island of Montréal, Canada, the only estimate, of 11,700 PWID, was obtained in 1996 through a capture-recapture method. Thirteen years later, this study was undertaken to produce a new estimate. METHODS: PWID were defined as individuals aged 14-65 years, having injected recently and living on the island of Montréal. The study period was 07/01/2009 to 06/30/2010. An estimate was produced using a six-source capture-recapture log-linear regression method. The data sources were two epidemiological studies and four drug dependence treatment centres. Model selection was conducted in two steps, the first focusing on interactions between sources and the second, on age group and gender as covariates and as modulators of interactions. RESULTS: A total of 1480 PWID were identified in the six capture sources. They corresponded to 1132 different individuals. Based on the best-fitting model, which included age group and sex as covariates and six two-source interactions (some modulated by age), the estimated population was 3910 PWID (95% confidence intervals (CI): 3180-4900) which represents a prevalence of 2.8 (95% CI: 2.3-3.5) PWID per 1000 persons aged 14-65 years. CONCLUSIONS: The 2009-2010 estimate represents a two-third reduction compared to the one for 1996. The multisource capture-recapture method is useful to produce estimates of the size of the PWID population. It is of particular interest when conducted at regular intervals thus allowing for close monitoring of the injection phenomenon.