195 resultados para Intermédiaires financiers
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Nous avons mené une étude empirique pour tester les conclusions théoriques d'un article de Foellmi et Oeschlin (2010), selon lesquelles la libéralisation commerciale accroît les inégalités de revenu dans les pays dont les marchés financiers sont affectés par des frictions. On réalise une régression sur des indices synthétiques de la distribution des revenus, de type Gini, de l’ouverture commerciale, en interaction avec un indicateur de disponibilité du crédit. On dispose d’un panel de pays en développement et de pays émergents, comprenant des données annuelles. Il apparaît que les signes de nos variables d’intérêts sont toujours cohérents avec l’analyse de Foellmi et Oeschlin, même après intégration de divers groupes de variables de contrôle et également lorsque les régressions sont effectuées sur des données agrégées par 5 ans. Néanmoins, les paramètres perdent en significativité pour certains groupes de variables de contrôle, certainement du fait de la faible qualité des données et de la taille relativement modeste de l’échantillon.
Resumo:
Les protéines amyloïdes sont impliquées dans les maladies neurodégénératives comme Alzheimer, Parkinson et les maladies à prions et forment des structures complexes, les fibres amyloïdes. Le mécanisme de formation de ces fibres est un processus complexe qui implique plusieurs espèces d’agrégats intermédiaires. Parmi ces espèces, des petits agrégats, les oligomères, sont reconnus comme étant l’espèce amyloïde toxique, mais leur mécanisme de toxicité et d’agrégation sont mal compris. Cette thèse présente les résultats d’une étude numérique des premières étapes d’oligomérisation d’un peptide modèle GNNQQNY, issu d’une protéine prion, pour des systèmes allant du trimère au 50-mère, par le biais de simulations de dynamique moléculaire couplée au potentiel gros-grain OPEP. Nous trouvons que le mécanisme d’agrégation du peptide GNNQQNY suit un processus complexe de nucléation, tel qu’observé expérimentalement pour plusieurs protéines amyloïdes. Nous observons aussi que plusieurs chemins de formation sont accessibles à l’échelle du 20-mère et du 50-mère, ce qui confère aux structures un certain degré de polymorphisme et nous sommes capable de reproduire, dans nos simulations, des oligomères protofibrillaires qui présentent des caractéristiques structurelles observées expérimentalement chez les fibres amyloïdes.
Resumo:
Même si le rôle des ONG locales de la lutte contre le VIH/Sida est bien apprécié en Afrique, il existe une perception d’inefficacité de leurs actions liée à leur manque de capacité dans le suivi-évaluation des programmes. Par ailleurs, leur implication en évaluation peut être utilisée comme moyen d’amélioration continue de l’efficacité de leurs interventions. L’objectif de ce travail est d’analyser l’influence de l’implication de ces ONG dans les évaluations sur l’efficacité de ces interventions. Il combine les méthodes qualitative et quantitative d’analyse de données recueillies auprès de responsables, de financeurs et clients des ONG du Bénin. Il est rédigé sous la forme d’articles et est subdivisé en quatre parties :- analyse descriptive de la façon dont les ONG s’impliquent dans les évaluations de leurs activités ainsi que des facteurs l’influençant;- analyse par une méthode quantitative de l’influence qu’une telle implication peut avoir sur l’efficacité des interventions;- examen de façon qualitative des perceptions des acteurs sur cette implication ainsi que des mécanismes par lesquels elle peut conduire à l’efficacité des interventions;- examen des dimensions et facteurs explicatifs de la satisfaction des clients de ces ONG. Des recommandations sont adressées aux acteurs en vue d’optimiser l’utilisation des méthodes d’évaluation par ces organisations pour une amélioration de l’efficacité de leurs actions.
Resumo:
Les dérivés cyclopropaniques di-accepteurs représentent des intermédiaires synthétiques précieux dans l’élaboration de structures moléculaires complexes, ayant des applications dans plusieurs domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse de ces unités sous forme énantioenrichie en utilisant la cyclopropanation d’alcènes par catalyse avec des complexes de Rh(II) utilisant des composés diazoïques di-accepteurs comme substrats. Suite au développement initial d’une méthode de cyclopropanation d’alcènes catalytique asymétrique utilisant des nitro diazocétones, de multiples études expérimentales quant au mécanisme de stéréoinduction dans ce type de réaction ont été effectuées. Nous avons alors pu identifier le groupement p-méthoxyphénylcétone du substrat et le catalyseur Rh2(S-TCPTTL)4 comme étant une combinaison clé pour l’atteinte de diastéréosélectivités et d’excès énantiomères élevés. Ceci a mené au développement de deux autres méthodes de cyclopropanation stéréosélectives distinctes, utilisant soit une cyano diazocétone ou un céto diazoester. Nous avons démontré l’utilité des dérivés cyclopropaniques énantioenrichis obtenus par ces trois méthodes dans une panoplie de manipulations synthétiques, dont l’addition nucléophile d’amines et de cuprates, la cycloaddition formelle avec un aldéhyde, et la synthèse de dérivés cyclopropaniques importants en chimie médicinale. Une étude structurelle approfondie des complexes de Rh(II) chiraux nous a permis de déterminer les facteurs responsables de leur pouvoir d’énantioinduction dans notre système réactionnel, ce qui a d’énormes implications dans d’autres méthodologies utilisant ces mêmes catalyseurs. Le dévoilement d’une conformation inattendue dite ‘All-up’, ainsi que de la présence d’interactions stabilisantes régissant la rigidité de cet arrangement se sont avérés cruciaux dans notre compréhension du mécanisme. Dans le cadre de cette investigation, nous avons développé une méthode générale pour la synthèse de complexes de Rh(II) hétéroleptiques, multipliant ainsi le nombre de catalyseurs accessibles dans l’élaboration éventuelle de nouvelles réactions stéréosélectives, et nous permettant d’effectuer une étude structurelle plus détaillée. De plus, nous avons développé une méthode particulièrement efficace pour la synthèse d’un autre type de dérivé cyclopropanique di-accepteur par catalyse avec des complexes de Rh(II), les cyano-cyclopropylphosphonates. Les produits de cette transformation sont obtenus avec des énantiosélectivités élevées, et sont des substrats intéressants pour des réactions tandem d’ouverture de cycle par addition nucléophile / oléfination de composés carbonylés. De plus, ces composés sont des précurseurs de molécules utiles en chimie médicinale tels que les acides aminocyclopropylphosphoniques.
Resumo:
Le diabète de type 2 (DT2) apparaît lorsque la sécrétion d’insuline par les cellules β des îlots du pancréas ne parvient plus à compenser la résistance à l’insuline des organes cibles. Parmi les médicaments disponibles pour traiter le DT2, deux classes agissent en améliorant la sensibilité à l’insuline : les biguanides (metformine) et les thiazolidinediones (pioglitazone et rosiglitazone). Des études suggèrent que ces médicaments protègent également la fonction des cellules β. Dans le but d’identifier des mécanismes par lesquels les médicaments insulinosensibilisateurs protègent les cellules β, nous avons étudié les effets aigus de la metformine et de la pioglitazone sur le métabolisme et la fonction des cellules INS 832/13, sécrétrices d’insuline et des îlots pancréatiques isolés de rats. Nous avons aussi validé in vivo avec des rats Wistar les principales observations obtenues en présence de pioglitazone grâce à des clamps glucidiques et par calorimétrie indirecte. Le traitement aigu des cellules β avec de la pioglitazone ou de la metformine inhibe la sécrétion d’insuline induite par le glucose en diminuant la sensibilité des cellules au glucose (inhibition en présence de concentrations intermédiaires de glucose seulement). Dans les mêmes conditions, les traitements inhibent aussi plusieurs paramètres du métabolisme mitochondrial des nutriments et, pour la pioglitazone, du métabolisme des lipides. Les composés affectent le métabolisme en suivant un patron d’inhibition similaire à celui observé pour la sécrétion d’insuline, que nous avons nommé « décélération métabolique ». La capacité de la pioglitazone à inhiber la sécrétion d’insuline et à ralentir le métabolisme mitochondrial de façon aigüe se confirme in vivo. En conclusion, nous avons identifié la décélération métabolique de la cellule β comme nouveau mode d’action pour les médicaments insulinosensibilisateurs. La décélération métabolique causée par les agents insulinosensibilisateurs les plus utilisés semble provenir d’une inhibition du métabolisme mitochondrial et pourrait être impliquée dans les bienfaits de ceux-ci dans un contexte de stress métabolique. Le fait que les deux agents insulinosensibilisateurs étudiés agissent à la fois sur la sensibilité à l’insuline et sur la sécrétion d’insuline, les deux composantes majeures du DT2, pourrait expliquer pourquoi ils sont parmi les agents antidiabétiques les plus efficaces. La décélération métabolique est une approche thérapeutique à considérer pour le traitement du DT2 et d’autres maladies métaboliques.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
La nature des acides dans un environnement aqueux est primordiale dans de nombreux aspects de la chimie et de la biologie. La caractéristique principale d'un acide est sa capacité à transférer un proton vers une molécule d'eau ou vers n'importe quelle base, mais ce procédé n'est pas aussi simple qu'il y paraît. Il peut au contraire être extrêmement complexe et dépendre de manière cruciale de la solvatation des différents intermédiaires de réaction impliqués. Cette thèse décrit les études computationnelles basées sur des simulations de dynamique moléculaire ab initio qui ont pour but d'obtenir une description à l'échelle moléculaire des divers procédés de transferts de proton entre acide et bases dans un milieu aqueux. Pour cela, nous avons étudié une serie de système, dont l'acide hydrofluorique aqueux, l'acide trifluoroacétique aqueux, et un système modèle constitué d'un phénol et d'une entité carboxylate reliés entre eux par une molécule d'eau en solution aqueuse. Deux états intermédiaires ont été identifiés pour le transfert d'un proton depuis un acide. Ces intermédiaires apparaissent stabilisés par un motif local de solvatation via des ponts H. Leurs signatures spectroscopiques ont été caractérisées au moyen de la spectroscopie infrarouge, en utilisant le formalisme de la dynamique moléculaire ab initio, qui inclut l'effet quantique nucléaire de manière explicite. Cette étude a aussi identifié trois chemins de réaction élémentaire, qui sont responsable pour le transfert d'un proton d'un acide à une base, ainsi que leurs échelles de temps caractéristiques. Les conclusions tirées de ces études sont discutées dans les détails, au niveau moléculaire, avec une emphase sur les comparaisons entre les résultats théoriques et les mesures expérimentales obtenues dans a littérature ou via des collaborateurs.
Resumo:
Notre thèse étudie les liens entre les « redevances forestières annuelles » (RFA) et le « développement local » dans deux communes du Cameroun. Ce travail anthropologique s’inscrit dans le débat qui se fait à l’échelle internationale relativement au rôle et au devenir des populations locales dans la gestion des ressources naturelles. Dans le passé, la gestion des redevances forestières annuelles (RFA) a été, dans les pays d’Afrique centrale et au Cameroun en particulier, sous la seule responsabilité de l’État central. Une telle politique n’offrait pas la garantie nécessaire à l’utilisation durable de ces ressources qui sont indispensables à la vie des populations villageoises riveraines et à l’équilibre de l’environnement. Profitant de la crise des années 1980 et 1990 en Afrique, le FMI et la Banque mondiale ont exercé une pression sur les États africains pour qu’ils revoient, en conformité avec la Conférence de Rio (1992), leurs politiques en matière de gestion et de conservation des ressources forestières. Dans le bassin du Congo, le Cameroun a été le tout premier pays à réviser, en 1994, ses lois forestières par le biais d’une décentralisation de la fiscalité forestière : les taxes perçues furent réparties entre l’État, les collectivités territoriales décentralisées et les populations villageoises riveraines. Les fonds transférés aux communes et aux populations riveraines devaient servir au développement local en contribuant notamment à l’amélioration des conditions générales de vie des populations à travers la réalisation d’œuvres sociales, l’adduction d’eau, la construction et l’entretien des routes, des écoles, des cases de santé, etc. Dans les faits, l’impact de la fiscalité forestière décentralisée reste à ce jour encore peu visible sur la dynamique du développement local des communes. Notre projet de recherche doctorale prend place dans le domaine d’une anthropologie du développement centrée sur l’étude des solutions que les populations locales apportent aux problèmes auxquels elles sont confrontées dans leur vie de tous les jours. L’analyse des impacts que les politiques de développement économique exercent sur les populations villageoises d’Afrique est ici à l’avant-plan, pas seulement au sens d’une critique des politiques étatiques en matière d’exploitation forestière, mais aussi au sens d’une meilleure compréhension des conditions de mise en œuvre de ces politiques et de l’impact de celles-ci sur les populations villageoises, tant sur le plan des avantages financiers directs que des transformations écologiques que les activités forestières introduisent dans les pratiques agricoles des villageois. Sur le plan méthodologique, il faut noter que ce fut très difficile d’obtenir les informations nécessaires, notre sujet d’étude se révélant être très sensible quant à sa portée politique. Nous avons néanmoins pu recueillir un solide ensemble de données par le biais d’une démarche de proximité de type qualitatif qui a été conduite dans deux communes forestières qui représentent deux réalités différentes en matière de gestion des RFA. La collecte des données a été faite, de manière intensive, dans sept villages qui répondaient à nos critères : nous avons ainsi pu étudier, de manière approfondie, la situation des groupes sociaux les plus défavorisés qui sont exclus dans le partage des revenus forestiers. Pour construire notre cadre théorique, nous avons combiné des éléments empruntés aux théories environnementales, à l’anthropologie économique et à l’analyse des modes de gestion. Il faut noter, par ailleurs, que l’anthropologue n’est ni un aménagiste, ni un environnementaliste, ni un spécialiste des études managériales. Nous avons conduit notre étude comparative dans les communes concernées en nous fixant pour objectif de comprendre les mécanismes de gestion des RFA mis en place par les leaders locaux et d’évaluer leur impact sur l’amélioration des conditions de vie des populations villageoises et sur leur écosystème. Notre préoccupation était de savoir si les RFA constituent des vecteurs de développement socioéconomique pour des populations vivant dans et de la forêt.
Resumo:
Cette thèse porte sur l’exploration des facteurs d’influence et des déterminants qui peuvent décrire et expliquer le comportement d’une entreprise multinationale lors d’un licenciement collectif pour fermeture d’usine mesuré à l’aune de l’idée de responsabilité sociale. Nous prenons pour base les conséquences sociales et économiques néfastes des licenciements collectifs sur les employés et les communautés ainsi que la faiblesse à cet égard du droit du travail québécois. De plus, nous établissons le lien entre la nature de la responsabilité sociale d’un point de vue théorique et la perspective empirique dans le cadre d’un processus de licenciement collectif. Pour arriver à cette fin, au niveau théorique, c’est à travers les critères éthiques de Garrett et Klonoski (1986) soit la juste cause, la minimisation des effets dommageables et la justice procédurale, que notre recherche a démontré qu’il était possible de déterminer de la responsabilité sociale d’une entreprise d’un point de vue empirique dans un contexte de licenciement collectif. Nous avons aussi regardé de près les différentes théories de la responsabilité sociale de l’entreprise pour finalement retenir une théorie instrumentale des parties-prenantes. Au plan méthodologique, nous avons utilisé une étude de cas unique soit celle de la fermeture partielle de l’usine de Rio Tinto Alcan située à Beauharnois au Québec. De plus, il a été possible de catégoriser l’approche adoptée par cette entreprise sous une taxonomie théorique de la responsabilité sociale, c’est donc une approche intégrative à deux niveaux : local et corporatif qui ressort de notre analyse. Au niveau local, nous avons identifié une perspective éthique reliée aux valeurs personnelles des individus devant mettre en place les mécanismes. Au niveau corporatif, c’est davantage une perspective instrumentale qui ressort. En ce sens, la multinationale estime devoir rendre des comptes à la fois à ses actionnaires et aux financiers afin d’établir une légitimité nécessaire ainsi qu’au politique (entre autre municipal et provincial) afin d’avoir accès aux ressources convoitées et nécessaires à son exploitation, de là l’importance de son image corporative. Le type d’entreprise doit être pris en considération, dans le secteur des ressources naturelles, le rôle et l’implication du politique s’avère central car il permet un accès aux ressources, essentiels à la survie de l’entreprise. L’apport de cette recherche se retrouve principalement dans l’étude du concept de responsabilité sociale à travers un phénomène important pour les relations industrielles soit celui des licenciements collectifs. Elle élargie aussi le champ théorique habituelle des relations industrielles en prenant en compte un cadre de la responsabilité sociale qui permet d’étudier des phénomènes sous un nouvel angle qui tient compte des priorités actuelles des multinationales dans un contexte d’ouverture des marchés et de recherche de légitimité.
Resumo:
L’auteur se penche sur la question de la responsabilité civile des prestateurs de moteurs de recherches et des fournisseurs d’hyperliens eu égard aux contenus illicites situés sur les sites qu’ils répertorient. Pour ce faire, il analyse la disposition législative régissant la responsabilité de ces intermédiaires, à savoir l’article 22 de la Loi concernant le cadre juridique des technologies de l’information, et se questionne sur l’efficacité véritable de cette disposition eu égard à l’intention présumée du législateur et à la position adoptée à l’étranger. L’auteur constate effectivement que la rédaction de cet article de loi laisse place à plusieurs problématiques qui risquent d’avoir des répercussions indésirables pour ces intermédiaires. Dans la seconde partie de son exposé, l’auteur aborde certaines situations pratiques pouvant entraîner la responsabilité de ces intermédiaires, notamment les questions liées aux virus informatiques, à la diffamation et à la propriété intellectuelle.
Resumo:
"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."
Resumo:
Article
Resumo:
L’objectif principal du présent mémoire réside dans l’exploration des liens concomitants existant entre les trois dimensions de l’épuisement professionnel telles que définies par Maslach (1981) et la consommation de substances psychoactives, plus précisément au niveau de la consommation épisodique excessive et hebdomadaire à risque d’alcool et de la consommation de médicaments psychotropes. À partir d’un échantillon composé de 1809 travailleurs provenant de 83 milieux de travail québécois, des profils-types correspondant à des formes particulières de comorbidité de santé mentale au travail sont identifiés grâce à la méthode d’analyse en classes latentes. Ainsi quatre profils-types sont dégagés: un premier regroupant les individus dits «sains», dont les scores aux différentes dimensions de l’épuisement professionnel sont faibles et dont la consommation de substances psychoactives est modérée; deux autres correspondant à des formes intermédiaires de risques; et un quatrième rassemblant des travailleurs dits «fragiles» dont les scores pour chacune des dimensions de l’épuisement professionnel se situent dans le quintile le plus élevé et dont les probabilités de consommation de substances psychoactives sont grandes. De plus, cette recherche s’est penchée sur l’identification de facteurs de risque et de protection associés à chacun des profils-types. À cet effet, les résultats des analyses corroborent la plupart des associations retrouvées au sein de la littérature quant aux facteurs du travail (composantes des modèles du stress professionnel de Karasek et Theorell (1990) ainsi que de Siegrist (1990)), hors travail (statut matrimonial, obligations parentales, revenu du ménage) et certaines caractéristiques individuelles (âge et genre). De faibles récompenses et un fort degré de surinvestissement de la part de l’individu se révèlent être des facteurs de risque particulièrement significatifs pour les formes intermédiaires et à risque de comorbidité de la santé mentale au travail. Dans une moindre mesure, une faible utilisation des compétences, des demandes psychologiques élevées, un soutien social inadéquat et le jeune âge expliquent une part de la variation observée entre les différents profils-types. Enfin, les résultats soutiennent une conceptualisation tridimensionnelle de l’épuisement professionnel.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade M.S. ès sciences (M. Sc) en sciences infirmières, option administration des sciences infirmières