931 resultados para Surplus commodities
Resumo:
Pérez-Castrillo and Wettstein (2002) propose a multi-bidding mechanism to determine a winner from a set of possible projects. The winning project is implemented and its surplus is shared among the agents. In the multi-bidding mechanism each agent announces a vector of bids, one for each possible project, that are constrained to sum up to zero. In addition, each agent chooses a favorite a object which is used as a tie-breaker if several projects receive the same highest aggregate bid. Since more desirable projects receive larger bids, it is natural to consider the multi-bidding mechanism without the announcement of favorite projects. We show that the merits of the multi-bidding mechanism appear not to be robust to this natural simplification. Specifically, a Nash equilibrium exists if and only if there are at least two individually optimal projects and all individually optimal projects are efficient.
Resumo:
L’étiologie de l’obésité infantile est multifactorielle et complexe. Le patrimoine génétique tout comme l’environnement d’un enfant peuvent favoriser l’apparition d’un surplus de poids. C’est pourquoi plusieurs études se sont penchées sur le lien entre l’environnement familial et en particulier le rôle de la mère et le risque d’obésité chez l’enfant. L’objectif est de mieux comprendre quels sont les facteurs de risque maternels spécifiques à chaque population afin de mieux prévenir ce fléau. Ce projet a donc cherché à identifier quelles sont les relations entre les facteurs de risque maternels et l’indice de masse corporelle d’enfants québécois avec surcharge pondérale. Parmi les facteurs de risque étudiés, on note des liens entre le niveau de scolarité de la mère, son statut familial et son niveau d’insécurité alimentaire. Sur le plan cognitif et comportemental, le lien entre l’indice de masse corporelle (IMC) de l’enfant et la perception maternelle du poids de son enfant ainsi que le niveau de restriction alimentaire maternel ont également été analysés. Au total, 47 entrevues ont été complétées par téléphone auprès des mères d’enfants obèses ou en embonpoint grâce à un large questionnaire destiné à décrire le profil des familles consultant les cliniques externes du CHU Ste Justine. Les tests de Fisher pour les variables catégorielles, le test de T de comparaison des moyennes du Z-score de l’IMC des enfants ont permis d’effectuer les analyses statistiques. Les résultats obtenus démontrent qu’un lien existe entre le niveau de scolarité maternel et la présence d’insécurité alimentaire. De même, il a été possible de constater que les enfants avec une mère restrictive des apports alimentaires de leur enfant avaient un Z-score de l’IMC significativement plus élevé. Ces résultats suggèrent qu’il existe des liens entre le profil socio-économique et comportemental de la mère et le surplus de poids de l’enfant. Des tests auprès d’un plus large échantillon seront nécessaires afin de confirmer ces résultats, l’objectif étant, entre autres, de mieux cibler les enfants à risque d’embonpoint ou d’obésité et de mieux outiller les professionnels de la santé en contact avec ces familles.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
L’Organisation mondiale de la santé animale (OIE) est l’institution internationale responsable de la mise en place des mesures sanitaires associées aux échanges commerciaux d’animaux vivants. Le zonage est une méthode de contrôle recommandée par l’OIE pour certaines maladies infectieuses, dont l’influenza aviaire. Les éclosions d’influenza aviaire été extrêmement coûteuses pour l’industrie avicole partout dans le monde. Afin d’évaluer la possibilité d’user de cette approche en Ontario, les données sur les sites de production avicole ont été fournies par les fédérations d’éleveurs de volailles ce cette province. L’information portant sur les industries associées à la production avicole, soit les meuneries, les abattoirs, les couvoirs, et les usines de classification d’œufs, a été obtenue par l’entremise de plusieurs sources, dont des représentants de l’industrie avicole. Des diagrammes de flux a été crée afin de comprendre les interactions entre les sites de production et les industries associées à ceux-ci. Ces industries constituaient les éléments de bas nécessaires au zonage. Cette analyse a permis de créer une base de données portant sur intrants et extrants de production pour chaque site d’élevage avicole, ainsi que pour les sites de production des industries associées à l’aviculture. À l’aide du logiciel ArcGIS, cette information a été fusionnée à des données géospatiales de Statistique Canada de l’Ontario et du Québec. La base de données résultante a permis de réaliser les essais de zonage. Soixante-douze essais ont été réalisés. Quatre ont été retenus car celles minimisaient de façon similaire les pertes de production de l’industrie. Ces essais montrent que la méthode utilisée pour l’étude du zonage peut démontrer les déficits et les surplus de production de l’industrie avicole commerciale en Ontario. Ceux-ci pourront servir de point de départ lors des discussions des intervenants de l’industrie avicole, étant donné que la coopération et la communication sont essentielles au succès du zonage.
Resumo:
La période de l’après-guerre posa d’importants défis commerciaux à l’économie canadienne. Les années entre 1945 et 1950 furent effectivement marquées par la rupture de son système commercial traditionnel et la recherche d’une stratégie alternative. Le pays dut composer avec un déficit commercial croissant à l’égard des États-Unis, ainsi qu’une chute de ses exportations à destination du Royaume-Uni, ruiné par les années de guerre. Ce déséquilibre commercial qui menaçait d’épuiser les réserves canadiennes de dollars américains reflétait l’écart entre les capacités productives des deux rives de l’Atlantique. Le programme de reconstruction des économies européennes, ou plan Marshall, fut accueilli avec enthousiasme à Ottawa puisqu’il devait non seulement rétablir les marchés du Vieux Continent, mais également faciliter la mise en place d’un réseau multilatéral d’échanges et la libéralisation du commerce international. Les tensions de la guerre froide limitèrent toutefois l’ouverture de ces marchés aux marchandises canadiennes, puisque l’endiguement du communisme commanda une consolidation européenne qui privilégia le démantèlement des entraves aux échanges intra-européens, aux dépens du commerce transatlantique. Les préoccupations de Washington en matière de sécurité collective devaient néanmoins laisser place à une stratégie alternative pour le Canada, en poussant la coopération économique des deux pays, dans le but d’optimiser une production de défense destinée aux pays membres de l’OTAN, dont la demande était soutenue par l’aide Marshall. L’incorporation du Canada dans ce dispositif de défense élargie à la communauté atlantique permit ainsi d’assurer un accès privilégié à ses marchandises sur le marché américain, et par conséquent de progresser vers l’équilibre commercial.
Resumo:
Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.
Resumo:
CONTEXTE: L'inefficacité de captation des acides gras libres (AGL) par le tissu adipeux blanc (TAB) est connue pour favoriser la résistance à l'insuline (RI) dans les tissus périphériques, mais dans le foie, elle favorise également la production accrue de lipoprotéines contenant l'apolipoprotéine B100 (lipoprotéines apoB). Nous avons récemment démontré que les femmes post-ménopausées obèses avec un nombre élevé de lipoprotéines apoB à jeun (apoB plasmatique > 1,2 g/L) avaient plus de RI que les femmes avec un taux d’apoB normal. Notre objectif était donc d'examiner si l'inefficacité de captation des AGL pourrait être un mécanisme expliquant la RI, in vivo dans cette population. HYPOTHÈSES: Les femmes ménopausées en surpoids/obèses avec un taux d’apoB élevé ont moins d'efficacité à capter les AGL par le TAB que les femmes avec un taux d’apoB faible. MÉTHODES/RÉSULTATS: L'efficacité de captation des AGL a été examinée dans 22 femmes non diabétiques en surpoids/obèses. La population a été séparée selon la médiane d’apoB (0.9 g/L) en 2 groupes; les femmes ayant un taux d’apoB inférieur vs supérieur à la médiane (N=11/groupe). L'efficacité de captation des AGL par le TAB a été indirectement évaluée en suivant le sort d'un repas riche en gras (0.0162g 13C-trioléine/g de matières grasses, 66% de gras, 47g gras/m2 surface corporelle) marqué au 13C-trioléine, sur 6h en circulation ([13C]TG et [13C]AGL plasmatiques) et en oxydation (13CO2 dans l’air expiré [AE]). L’enrichissement en 13C des échantillons d’AE et du plasma a été mesuré par spectrométrie de masse pour ratio isotopique. Les femmes ayant un apoB élevé avaient une clairance plasmatique totale postprandiale des TG (p <0,05) réduite sans diminuer de la clairance plasmatique totale des AGL, par rapport aux femmes ayant un faible taux d’apoB. Cependant, en examinant le sort du 13C-trioléine, les femmes ayant un apoB élevé avait une réduction de la clairance des [13C]TG plasmatiques (44,78 μM vs 7,81 μM; p <0,05) et des [13C]AGL plasmatiques (2,64 uM vs 0,06 uM; p <0,05) à 6h, sans aucune différence en % récupéré de 13C-trioléine dans le CO2 de l’AE. Ces données suggèrent que les femmes ayant un taux d’apoB élevé ont une réduction postprandiale de la clairance et de la captation de 13Ctrioléine par le TAB. CONCLUSION: La captation inefficace des AGL par le TAB des femmes post-ménopausées en surpoids et obèses avec un surplus d’apoB peut être un mécanisme sousjacent à la RI chez ces sujets.
Resumo:
This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users.
Resumo:
De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.
Resumo:
Introduction: Bien que la dépense énergétique associée au travail mental ne soit pas plus élevée qu’au repos, des travaux ont mené à la conclusion que la réalisation d’une tâche mentale stressante était reliée à une augmentation de la consommation énergétique. Il est suggéré que le travail mental stressant produise des effets physiologiques modulant l’apport alimentaire. Le but du projet était donc de déterminer, dans une population d’adolescents masculins, si l’introduction d’une période d’activité physique pourrait contrebalancer les effets négatifs du travail intellectuel dans le contrôle de l’ingestion et du bilan énergétiques. Méthodes: Douze étudiants de sexe masculin, sans surplus de poids et âgés entre 14 et 20 ans, ont été évalués au CHU Sainte-Justine. Ils devaient prendre part à trois visites dans un ordre aléatoire: a) visite NOpause = relaxation/travail mental/repas; b) visite RELpause = travail mental/relaxation/repas; visite PApause = travail mental/activité physique/repas. L’effet de l’introduction d’une pause active sur l’ingestion et le bilan (kilojoules ingérés - kilojoules dépensés lors des différentes tâches) énergétiques a été étudié en comparant les visites par analyse par test-t pour échantillons appariés avec un seuil de significativité fixé à 0,05. Résultats: L’introduction d’une pause passive entre le travail mental et le repas ne modifie en rien l’ingestion et le bilan énergétiques. L’introduction de la pause active n’augmente pas la consommation alimentaire, et ce, malgré une augmentation significative des sensations associées à l’appétit (envie de manger, faim, sensation d’être rempli et consommation anticipée d’aliments). Considérant la dépense énergétique inhérente à la pratique d’activité physique, un bilan énergétique significativement inférieur de plus de 1000 kJ a été mesuré pour la visite avec pause active par rapport à la visite sans pause. Conclusion : Cette étude est la première à confirmer que de bouger entre un travail mental et un repas est une stratégie efficace pour contrer l’effet hyperphagiant du travail mental via son action sur la dépense énergétique augmentée et un maintien de l’ingestion calorique. Globalement, ces résultats pourraient aider au maintien et à l'amélioration d'un statut corporel sain dans un contexte où le travail mental est omniprésent.
Resumo:
L’obésité est définie comme un surplus de masse adipeuse. Cette condition représente un problème de santé publique devenu pandémique dans les pays industrialisés. Elle prédispose à des maladies potentiellement mortelles comme le diabète de type 2, les maladies cardiovasculaires et la stéatose hépatique non-alcoolique. L’accumulation du tissu adipeux intra-abdominal, formé d’adipocytes, est corrélée avec la résistance à l’insuline. L’augmentation de la masse adipeuse se fait par l’hyperplasie des préadipocytes, la différenciation des préadipocytes en adipocytes et l’hypertrophie des adipocytes. La différenciation des préadipocytes se fait selon l’adipogenèse qui est régulée par une multitude de facteurs, mais qui est inhibée pas les stimuli inflammatoires qui sont aussi responsables de la résistance à l’insuline et de l’apparition des problèmes de santé liés à l’obésité. Nous avons identifié un nouveau système de régulation autocrine/paracrine de l’adipogenèse dans les cellules du tissu adipeux. Le pyroglutamylated RF-amide peptide (QRFP), qui était connu pour son rôle dans la régulation de l’appétit, est un activateur de l’adipogenèse par l’activation de son récepteur, le G protein-coupled receptor 103 (GPR103). Le QRFP est exprimé dans les macrophages et les adipocytes alors que le GPR103 de sous-type b est exprimé dans les adipocytes seulement. Un traitement des adipocytes avec le QRFP augmente le captage des acides gras, l’accumulation de lipides ainsi que l’expression et l’activité de l’enzyme LPL. Le QRFP augmente aussi l’expression des gènes des transporteurs d’acides gras CD36 et FATP1, de l’enzyme activatrice d’acides gras ACSL1 et des facteurs de transcription PPAR-γ et C/EBP-α, qui sont tous impliqués dans l’adipogenèse. En plus de ses effets sur l’adipogenèse, le QRFP possède aussi un effet inhibiteur sur l’activité lipolytique induite par les catécholamines. Nous avons montré que l’expression du QRFP est diminuée dans le tissu adipeux des souris obèses. Selon nos résultats, cette diminution pourrait être expliquée par une augmentation des endotoxines circulantes chez les obèses, appelée endotoxémie métabolique, qui agirait, entre autres, par l’induction des interférons dans les macrophages. Les voies de signalisation de ces effets ont aussi été identifiées. Nous avons montré un autre exemple de stimulus inflammatoire qui régule les signaux adipogènes à la baisse.
Resumo:
Un kleptomane, pris d’impulsions irrésistibles, peut-il être responsable pénalement de ses actes ? Voilà la question à l’origine de cette recherche. Les troubles du contrôle des impulsions sont des troubles mentaux caractérisés par l’impossibilité de résister à une impulsion. Comment peut-on concilier ceux-ci avec le droit pénal canadien sachant que la responsabilité criminelle repose sur le postulat voulant que seul un acte volontaire justifie une déclaration de culpabilité ? Afin d’avoir une étude exhaustive sur le sujet, nous avons choisi trois troubles du contrôle des impulsions, soit la kleptomanie, la pyromanie et le jeu pathologique. Cette sélection permet d’étudier à la fois l’imputabilité criminelle et l’imposition d’une sentence en droit pénal canadien. Cette étude propose un retour aux principes fondamentaux de la responsabilité criminelle et l’analyse du droit pénal canadien afin de démontrer que certains troubles du contrôle des impulsions (kleptomanie et pyromanie) entraînent chez le sujet atteint une incapacité criminelle, le rendant non criminellement responsable au sens de l’article 16 du Code criminel. Au surplus, cette recherche porte sur les principes entourant l’imposition d’une sentence en droit pénal canadien et étudie l’impact de ces maladies mentales au point de vue de la peine. Cette analyse démontre que les caractéristiques diagnostiques des troubles du contrôle des impulsions sont utilisées afin d’alourdir la peine imposée aux contrevenants. Nous considérons que celles-ci ne devraient pas être employées comme facteurs aggravants (particulièrement en matière de jeu pathologique), mais devraient plutôt être utilisées afin d’imposer une peine plus appropriée pour remédier à la problématique entraînant la commission des délits.
Resumo:
Cette étude porte sur une intervention de groupe basée sur la thérapie cognitivo-comportementale pour l’hyperphagie boulimique (HB), dont les effets potentiels sur la qualité de vie reliée au poids, la fréquence et la sévérité des crises de boulimie, les symptômes dépressifs, l’image corporelle et le poids corporel ont été mesurés, et le degré d’acceptation par les participantes a été documenté. Ainsi, 11 femmes avec un surplus de poids et répondant aux critères diagnostiques de l’HB ont été recrutées du printemps 2012 à l’hiver 2013, dans la région de Montréal. Le programme comportant huit séances hebdomadaires était dispensé par une nutritionniste et une psychothérapeute. La qualité de vie reliée au poids (Impact of Weight on Quality of Life), la fréquence des crises de boulimie (rappel des sept derniers jours), la sévérité des crises de boulimie (Binge Eating Scale), les symptômes dépressifs (Inventaire de Beck pour la dépression), l’insatisfaction corporelle (Body Shape Questionnaire) et le poids corporel ont été mesurés avant et à la fin de l’intervention. Puis, un questionnaire pour mesurer l’acceptation par les participantes était soumis au terme du programme. Le taux de participation aux séances était aussi colligé. Les résultats montrent que notre programme a permis une amélioration significative du score global de la qualité de vie reliée au poids de 8,4 ± 13,3, ainsi qu’en termes d’estime de soi et de travail. Aussi, une diminution significative de la fréquence des crises de boulimie de 2,1 ± 2,1 jours, de la sévérité des crises de boulimie dont le score a diminué de 10,9 ± 7,7, des symptômes dépressifs dont le score a diminué de 8,3 ± 5,7 et de l’insatisfaction corporelle dont le score a diminué de 32,8 ± 17,1, ont été observées. Toutefois, il n’y a pas eu de perte de poids au terme de l’intervention. Puis, le programme a été bien accepté par les participantes tel que démontré par le taux de participation aux séances de 93,8 % et la satisfaction mesurée par l’appréciation des divers éléments du programme de 4,6 sur 5 et la pertinence de ceux-ci de 4,8 sur 5. Ces données suggèrent que l’intervention de groupe semble être prometteuse pour améliorer les symptômes et conséquences de l’HB, à l’exception du poids.