225 resultados para Utilité différentielle stochastique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de L.L.M. en droit des affaires"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : L’effet biologique variable de l’aspirine a été attribué à un état de résistance pharmacologique. L’incidence de cette « résistance » varie selon la population ou la technologie étudiée. Méthodes : Nous avons déterminé la performance de 5 techniques évaluant l’effet de l’aspirine chez des sujets sains, non fumeurs et ne prenant aucune médication pouvant interférer avec la fonction plaquettaire. Des spécimens de sang et d’urine ont été obtenus avant et après 8-10 jours de prise de 80 mg d’aspirine. Résultats: Chez 45 sujets de 19-59 ans, la sensibilité (SE), la spécificité (SP), et la valeur optimale de coupure (CO) pour détecter l’effet de l’aspirine sont : agrégométrie par transmission optique induite avec 1,6 mM d’acide arachidonique (ATO-AA) - SE 100%, SP 95,9%, CO 20%; ATO-ADP 10 μM - SE 84,4%, SP 77,7%, CO 70%; VerifyNow® Aspirin - SE 100%, SP 95,6%, CO 550 ARU; agrégation en tube - SE 82,2%, SP 86,7%, CO 55%; TEG® - SE 82,9%, SP 75,8%, CO 90%; et le dosage de 11-dehydrothromboxane B2 urinaire - SE 62,2%, SP 82,2%, CO 60 pg/ml. Conclusions: La résistance à l’aspirine chez les sujets sains définie par ATO-AA et VerifyNow® Aspirin est rare. Puisque les autres techniques étudiées discriminent de façon sous optimale l’effet de l’aspirine, leur utilité dans la définition de la résistance pharmacologique à l’aspirine semble marginale. Ces résultats suggèrent qu’une proportion de la variabilité de l’incidence rapportée de “résistance à l’aspirine” est artefactuelle et reliée aux limitations technologiques de certaines analyses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire est le cancer gynécologique le plus létal. La survie à 5 ans est de 30-40% chez les patientes atteintes d’une tumeur invasive (TOV), comparativement à 95% chez les patientes diagnostiquées pour une tumeur à faible potentiel de malignité ou borderline (LMP). Au laboratoire, l’analyse de l’expression des gènes de la micropuce à ADN U133 d’Affymetrix a révélé que la SERPINA1 est un gène dont l’expression varie entre les tumeurs LMP et TOV. La validation par Q-PCR nous a confirmé que cette antiprotéase est majoritairement surexprimée dans les tumeurs LMP, par rapport aux tumeurs bénignes (BOV) et aux tumeurs TOV. Nous avons donc surexprimé la SERPINA1 dans les lignées cellulaires invasives TOV 112D et TOV 1946 du cancer de l’ovaire et dérivé des clones stables. Les résultats obtenus nous indiquent que la surexpression de la SERPINA1 a un effet sur la capacité d’invasion et de migration cellulaire et non au niveau de la croissance cellulaire et la formation de structures tridimensionnelles. Les résultats issus de l’étude in vivo dans les souris SCID nous permettront de déterminer si la surexpression de la SERPINA1 a un effet sur la tumorigénèse ovarienne. Ainsi, la SERPINA1 demeure à notre avis un candidat d’intérêt pour tenter de mieux comprendre les différences biologiques entre les tumeurs LMP et TOV, ainsi que le rôle des protéases et de leurs inhibiteurs dans la progression tumorale du cancer de l’ovaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite à une consultation publique, la ministre de la Justice Anne McLellan a voulu répondre aux groupes et aux citoyens en intégrant, dans le projet de loi omnibus C-17, des amendements visant le droit criminel quant à la cruauté envers les animaux. Le projet de loi étant devenu caduc aux dernières élections fédérales, ces nouvelles dispositions étaient reprises par le projet de loi C-15 qui a lui-même été prorogé à la fin de la première session de la 37 législature. Les modifications qu'il proposait sont intégralement reprises par le projet de loi C-IO, déposé en octobre 2002. Les membres du Sénat renvoyaient récemment ce dernier devant le Comité permanent des affaires juridiques et constitutionnelles, chargé de le scinder en deux afin qu'un nouveau projet de loi, le ClOB, soit bientôt déposé et porte exclusivement sur la cruauté envers les animaux. Devant l'imminence de telles modifications, il est intéressant de se questionner autant sur leur contexte que sur leur portée. Dans une première partie, nous présentons quelques éléments du contexte philosophique et sociétal justifiant l'intérêt grandissant pour la question animale. L'émergence de nouvelles théories morales accordant plus de valeur à l'animal, les critiques et revendications des groupes de pression et des citoyens en général, ainsi que les récentes études démontrant un lien entre la cruauté envers les animaux et la violence dirigée contre l'homme, exigent une remise en question des rapports homme/animal. Une révision de ces différents facteurs contextuels permet de mieux comprendre à quoi répondent ces projets de loi. Dans une deuxième partie, nous relevons plusieurs incohérences du droit actuel afin d'identifier ce qui devrait être modifié par le législateur. Les incohérences sont à plusieurs niveaux: cohabitation de lois visant à protéger l'animal défini comme un être sensible et de lois portant sur la gestion des animaux considérés comme de simples ressources utiles à l'homme; intégration d'infractions visant à protéger l'animal dans la section du Code criminel portant sur les biens; gravité relativement importante des crimes contre les animaux par comparaison à certaines infractions contre la personne; problèmes 11 liés au libellé des infractions particulières et distinctions quant au degré de protection des animaux en fonction de leur intérêt pour 1'homme. Ensuite, le droit proposé sera examiné pour vérifier s'il règlera ces problèmes. Retirées de la partie concernant les biens, les infractions porteront davantage sur la sensibilité de l'animal plutôt que vers son utilité pour l'homme. Au niveau des régimes de responsabilité, l'ambiguïté constitutionnelle entraînée par la présomption du paragraphe 446(3) C.cr. sera évacuée. Quant aux peines, le durcissement prévu risque de rendre les infractions démesurément sévères par comparaison à certains crimes contre la personne. Bien qu'actualisées, les infractions seront toujours nombreuses et anecdotiques. Finalement, les changements de nature strictement juridique sont surtout cosmétiques, alors que la valeur symbolique des projets de loi est, quant à elle, plus significative. En effet, si quelques considérations anthropocentriques sont à l'origine des projets de loi, une reconnaissance de la valeur intrinsèque de l'animal semble aussi les avoir inspirés. Malheureusement, le paradigme de l'animal proposé, encore plus que celui qui est actuellement reconnu, se concilie difficilement avec l'utilisation des animaux pour les fins égocentriques de l'homme

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La faillite internationale est une matière complexe qui a donné lieu à un long et vif débat doctrinal entre les tenants des systèmes de la territorialité et de l'universalité. Une faillite est internationale lorsqu'elle met en présence un débiteur possédant des biens ou des créanciers dans plus d'un pays. Puisque la matière de faillite est souvent très différente d'un pays à l'autre, l'application du système de la pluralité, retenue dans la plupart des pays, soulève plusieurs problèmes particulièrement en ce qui concerne la coordination entre les diverses faillites et le manque de protection des créanciers, notamment parce qu'elle accorde des effets limités à la reconnaissance des procédures de faillite étrangères. En effet, en présence de procédures de faillite concurrentes il s'agit de répondre aux questions suivantes: quelle est la juridiction compétente pour ouvrir et organiser la faillite? Quelle est la loi applicable? Dans quels États cette faillite va-t-elle produire des effets? Dans le présent mémoire, il s'agit d'établir une comparaison entre le système canadien et le système européen en matière de faillite internationale. Le législateur canadien a récemment envisagé de modifier sa législation sur la faillite pour permettre une meilleure coopération internationale en matière de faillite internationale. Le projet canadien C-55 reprend pour l'essentiel les dispositions contenues dans la loi-type de la commission des Nations-Unis pour le droit commercial international (CNUDCI) sur «l'insolvabilité internationale». Ainsi, il permet de faciliter réellement la reconnaissance des décisions de faillite étrangères, il accorde une plus grande portée aux effets de cette reconnaissance et il prévoit une coordination des procédures multiples en établissant une «hiérarchisation» des procédures de faillite relativement semblable au système européen. Cependant, le projet canadien atteint moins bien l'objectif d'universalité que le Règlement européen 1346/2000 au niveau du traitement égalitaire entre les créanciers locaux et les créanciers étrangers. Si la loi-type offre à tous les États une utilité pratique considérable pour les nombreux cas de coopération internationale, l'harmonisation de la faillite internationale dépendra de son adoption dans les différentes législations. Bien que plusieurs pays aient inséré ce modèle dans leur législation sur la faillite, il n'est pas encore possible, à l'heure actuelle, de parler d'un droit international de la faillite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de mémoire vise à comprendre les inégalités entre hommes et femmes face à la dépression et, plus spécifiquement, à examiner dans quelle mesure les différences de genre dans les rôles familiaux et professionnels contribuent à ces inégalités. La théorie du stress social (Pearlin, 1999) propose que les rôles sociaux soient reliés à l’état de santé mentale des individus par l’intermédiaire des conditions dans lesquelles ils s’exercent. Ces conditions, abordées en termes de contraintes et de ressources, peuvent constituer des facteurs de protection ou de risque aux stress et aux difficultés psychologiques. Deux mécanismes expliqueraient les inégalités de genre face à la dépression: l’exposition et la vulnérabilité à ces conditions. L’objectif de ce mémoire est d’examiner ces mécanismes sexués en évaluant en premier lieu, si les hommes et les femmes connaissent une exposition inégale aux contraintes et ressources familiales et professionnelles puis, dans un deuxième temps, si le risque de dépression associé à l’exposition à ces conditions diffère selon le sexe. Finalement, nous examinerons si la perception d’un conflit travail-famille vient modifier les effets des contraintes-ressources sur les risques de dépression. Les analyses, effectuées à l'aide des données représentatives de la population de parents en emploi provenant de l'enquête GENACIS-Canada 2004 (Gender, Alcohol and Culture: An International Study), proposent deux dynamiques de stress spécifiques à chacun des sexes. Premièrement, plusieurs contraintes-ressources observées se distribuent différemment selon le sexe. Ainsi, toutes proportions gardées, les femmes travaillent sensiblement moins d’heures par semaine. Par ailleurs, en ce qui concerne les conditions familiales, la proportion de familles monoparentales est plus importante chez les femmes que chez les hommes alors que plus de travailleurs que de travailleuses ont des enfants de moins de cinq ans. D'autre part, les résultats indiquent également une vulnérabilité différentielle aux contraintes et ressources de la vie familiale et de la vie professionnelle. Pour les hommes, l’insatisfaction au travail constitue un facteur de risque de dépression, facteur de risque qui est exacerbé pour ceux qui considèrent que leur travail interfère négativement avec leur vie familiale. Les femmes sont, pour leur part, davantage sensibles à leurs conditions de vie familiale et de travail. Ainsi, les horaires irréguliers de travail et un plus grand nombre d’heures travaillées, l’insuffisance de revenu familial et la présence d’adolescents dans le ménage constituent pour celles-ci des facteurs de risque à la dépression. Le nombre d’enfants apparaît également comme un facteur de risque mais uniquement lorsque les femmes perçoivent un conflit entre leurs responsabilités familiales et professionnelles. Par ailleurs, le fait de vivre en couple constitue un facteur de protection pour les hommes et ce même lorsqu’ils sont insatisfaits de leur relation de couple alors que, pour les femmes, cet effet protecteur ne se retrouve pas chez celles qui sont insatisfaites de leur vie conjugale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le thème de ce mémoire de Maîtrise en droit est « La dignité humaine: limite à la brevetabilité du corps humain». Dans ce travail, nous avons tenté d'apporter une contribution à un débat des plus importants de ce début du 21 e siècle. Deux parties composent ce mémoire. La première partie vise à présenter la thématique de la brevetabilité du corps humain. Elle fait l'analyse non seulement des normes juridiques interdisant la brevetabilité du corps humain, mais aussi elle se penche sur le corps humain comme source d'inventions brevetables. Dans la première sous-section, notre analyse porte sur l'étude des documents normatifs d'intérêt international, régional et national. Le modèle et les normes de la Communauté européenne ont largement retenu notre attention alors que le cas des États-Unis, du Canada et surtout de la France nous servait de guide de réflexion pour mieux comprendre l'état du droit au Canada. Par une argumentation serrée nous avons conclu cette partie en affirmant que le corps humain n'est pas brevetable. La prohibition de la brevetabilité du corps humain s'impose comme universelle. La dignité humaine a constitué un élément déterminant de cette prohibition. Ce qui nous a permis, dans la deuxième sous-section de considérer le brevetage de l'ADN. Après avoir présenté les trois critères juridiques de la brevetabilité, à savoir la nouveauté, l'utilité et l'inventivité, nous avons appliqué ces critères à l'ADN. Il s'est avéré que c'est à bon droit que la plupart des pays accordent le brevet sur l'ADN. Mais cet état de droit pose des problèmes sur le plan des valeurs éthiques. Il a notamment comme conséquence de relativiser la dignité humaine. Ces dernières considérations éthiques nous ont conduits à étendre à l'ADN les critères juridiques de la brevetabilité vus dans la première partie. Pour nous prononcer adéquatement sur ce sujet combien délicat, il a fallu considérer la question de la brevetabilité de l'ADN chez les vivants, depuis l'affaire Chakrabarty en 1980, aux États-Unis, en passant par la Directive européenne de 1998, l'affaire Harvard College au Canada jusqu'à Myriad Genetics Inc. En droit, la brevetabilité de l'ADN ne fait plus de doute. Mais elle continue de soulever des « gènes» sur le plan éthique. L'inquiétude que suscite la pente glissante nous a amenés, dans la deuxième partie, à nous pencher sur la brevetabilité dans son rapport avec la dignité humaine. La première sous-section se voulait une analyse permettant de montrer que la dignité humaine est une valeur absolue et inconditionnelle. Si nous considérons cette valeur comme absolue, il devient impossible de breveter le corps humain dans son ensemble. Par contre, en brevetant l'ADN humain, nos institutions se trouvent à relativiser la dignité humaine. C'est ce que la deuxième sous-section tendait à montrer. Soulignons que cette deuxième sous-section a été conçue également comme une conclusion. Elle s'articule autour notamment de la dignité humaine comme principe de précaution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714utilité pour les personnes ayant une récupération supérieure. Les résultats ont aussi montré un profil différent des personnes tétraplégiques quant à la réussite des différentes épreuves du Berg par comparaison aux sujets paraplégiques. Pour les résultats reliés aux aides techniques, l’analyse des données descriptives révèlent que le score Berg permet généralement de faire la distinction entre les personnes indépendantes d'aides techniques, les utilisateurs de marchettes de béquilles ou de cannes, et ce, particulièrement pour les personnes paraplégiques. Cette étude a permis de documenter la validité concomitante de l'échelle de Berg auprès des personnes LM ayant une lésion incomplète (ASIA D) étant donné les relations élevées démontrées entre les paramètres de la marche et les résultats à certains tests du Balance Master. En somme, la présente étude permet de recommander l'utilisation de l'échelle de Berg pour évaluer l'équilibre debout des personnes LM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est un procédé permettant de préparer des fibres possédant un diamètre de l’ordre du micromètre ou de quelques centaines de nanomètres. Son utilisation est toutefois limitée par le manque de contrôle sur la structure et les propriétés des fibres ainsi produites. Dans ce travail, des fibres électrofilées à partir de mélanges de polystyrène (PS) et de poly(vinyl méthyl éther) (PVME) ont été caractérisées. La calorimétrie différentielle à balayage (DSC) a montré que les fibres du mélange PS/PVME sont miscibles (une seule transition vitreuse) lorsque préparées dans le benzène, alors qu'une séparation de phases a lieu lorsque le chloroforme est utilisé. Les fibres immiscibles sont néanmoins malléables, contrairement à un film préparé par évaporation du chloroforme qui a des propriétés mécaniques médiocres. Des clichés en microscopies optique et électronique à balayage (MEB) ont permis d’étudier l'effet de la composition et du solvant sur le diamètre et la morphologie des fibres. Des mesures d’angles de contact ont permis d’évaluer l’hydrophobicité des fibres, qui diminue avec l’ajout de PVME (hydrophile); les valeurs sont de 60° supérieures à celles des films de composition équivalente. Un retrait sélectif du PVME a été réalisé par l’immersion des fibres dans l’eau. La spectroscopie infrarouge a montré que la composition passe de 70 à 95% de PS pour une fibre immiscible mais seulement à 75% pour une fibre miscible. Ces résultats indiquent que la phase riche en PVME se situe presque uniquement à la surface des fibres immiscibles, ce qui a été confirmé par microscopie à force atomique (AFM) et MEB. Finalement, l’effet du mélange des deux solvants, lors de l’électrofilage du mélange PS/PVME, a été étudié. La présence du chloroforme, même en quantité réduite, provoque une séparation de phases similaire à celle observée avec ce solvant pur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte et objectif. L’évasion fiscale a généré des pertes annuelles variant entre 2 et 44 milliards au Canada entre 1976 et 1995. Avec la croissance de l’évasion fiscale dans les années 1980 et 1990 plusieurs législations se sont attaquées à ce phénomène en mettant en place des mesures telles que les amnisties, les réformes fiscales et les nouvelles lois. Ces dernières reposent non seulement sur des principes théoriques distincts, mais leur efficacité même est remise en question. Bien que plusieurs auteurs affirment que les criminels en col blanc sont réceptifs aux sanctions pénales, une telle affirmation repose sur peu de preuves empiriques. L’objectif de ce mémoire est donc de réaliser une synthèse systématique des études évaluatives afin de faire un bilan des lois fiscales et d’évaluer leurs effets sur la fraude fiscale. Méthodologie. La synthèse systématique est la méthodologie considérée comme la plus rigoureuse pour se prononcer sur l’effet produit par une population relativement homogène d’études. Ainsi, 18 bases de données ont été consultées et huit études ont été retenues sur les 23 723 références. Ces huit études contiennent neuf évaluations qui ont estimé les retombés des lois sur 17 indicateurs de fraude fiscale. L’ensemble des études ont été codifiées en fonction du type de loi et leur rigueur méthodologique. La méthode du vote-count fut employée pour se prononcer sur l’efficacité des lois. Résultats. Sur les 17 indicateurs, sept indiquent que les lois n’ont eu aucun effet sur l’évasion fiscale tandis que six témoignent d’effets pervers. Seulement quatre résultats sont favorables aux lois, ce qui laisse présager que ces dernières sont peu efficaces. Toutefois, en scindant les résultats en fonction du type de loi, les réformes fiscales apparaissent comme une mesure efficace contrairement aux lois et amnisties. Conclusion. Les résultats démontrent que les mesures basées sur le modèle économique de Becker et qui rendent le système plus équitable sont prometteuses. Les amnisties qui visent à aller chercher des fraudeurs en leur offrant des avantages économiques et en suspendant les peines sont non seulement inefficaces, mais menaceraient le principe d’autocotisation basé sur l’équité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ FRANÇAIS Ce mémoire fait l’étude du régime de prévention et de sanction des conflits possibles entre les intérêts de la municipalité d’une part et de ceux de ses élus de l’autre. L’objet de recherche est abordé selon une approche historique et éthique basée sur le régime juridique actuel. Le mémoire est divisé en 3 chapitres : (1) la notion de conflit d’intérêts ; (2) le cadre juridique à la base du régime de sanction des conflits d’intérêts et (3) celui sur le régime de prévention des conflits d’intérêts dans le domaine municipal. Le chapitre préliminaire situe l’objet de recherche à l’intérieur des grandes tendances de la recherche juridique sur la question et présente un cadre de réflexion sur la notion de conflit d’intérêts. L’examen des conflits d’intérêts repose avant tout sur un questionnement et sur un jugement de nature subjective : ce qui a été considéré comme un conflit d’intérêts autrefois ne l’est pas nécessairement de nos jours et ce, en dépit du fait que le cadre juridique évolue aussi dans le temps. On ne peut donc pas dégager avec exactitude et pour toujours ce qui constitue un conflit d’intérêts de ce qui n’en constitue pas un. Le chapitre premier est divisé en 4 sections. On y traite notamment de la règle relative à l’interdiction pour un élu municipal de contracter avec la municipalité. On y démontre que l’origine de cette règle remonte aux premières lois municipales du XIXe siècle et que cette dernière a subi assez peu de modifications au fil des ans. La troisième section porte sur les cas de malversation, d’abus de confiance et les autres inconduites prohibées par la Loi sur les élections et référendums dans les municipalités (L.R.Q. c. E-2.2). Une quatrième section sur les accusations criminelles d’abus de confiance et de corruption vient clore le premier chapitre. Chacune de ces sections est abordée notamment en faisant l’historique des dispositions législatives en cause ainsi qu’en faisant certains parallèles avec la législation des autres provinces canadiennes. Le chapitre 2 sur le régime de prévention des conflits d’intérêts est divisé en 4 parties. La première section porte sur l’obligation pour un élu de déclarer annuellement ses intérêts pécuniaires. Cette obligation n’est pas unique au Québec puisqu’elle est présente dans quelques législations provinciales canadiennes. La deuxième section porte sur l’obligation pour cet élu de dénoncer verbalement son intérêt dans une question abordée par le conseil municipal réuni en séance ou en comité. Là encore, l’origine de cette approche préventive est fort ancienne et a longtemps été considéré comme le seul moyen de dénoncer son intérêt sans subir les sanctions prévues par la loi. Une troisième section s’intéresse au cadre juridique entourant les soumissions publiques et qui vise à éliminer toute situation possible de favoritisme ou de patronage. Une quatrième section aborde la question des codes d’éthique et de leur utilité ainsi que les développements récents sur cette question avec le dépôt en 2009 du rapport du Groupe de travail sur l’éthique dans le milieu municipal. Une conclusion vient clore le mémoire en présentant une synthèse de l’étude assortie de commentaires personnels sur les conclusions du Groupe de travail précité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.