17 resultados para Minimisation

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les quatre principales activités de la gestion de risque thérapeutique comportent l’identification, l’évaluation, la minimisation, et la communication du risque. Ce mémoire aborde les problématiques liées à l’identification et à la minimisation du risque par la réalisation de deux études dont les objectifs sont de: 1) Développer et valider un outil de « data mining » pour la détection des signaux à partir des banques de données de soins de santé du Québec; 2) Effectuer une revue systématique afin de caractériser les interventions de minimisation de risque (IMR) ayant été implantées. L’outil de détection de signaux repose sur la méthode analytique du quotient séquentiel de probabilité (MaxSPRT) en utilisant des données de médicaments délivrés et de soins médicaux recueillis dans une cohorte rétrospective de 87 389 personnes âgées vivant à domicile et membres du régime d’assurance maladie du Québec entre les années 2000 et 2009. Quatre associations « médicament-événement indésirable (EI) » connues et deux contrôles « négatifs » ont été utilisés. La revue systématique a été faite à partir d’une revue de la littérature ainsi que des sites web de six principales agences réglementaires. La nature des RMIs ont été décrites et des lacunes de leur implémentation ont été soulevées. La méthode analytique a mené à la détection de signaux dans l'une des quatre combinaisons médicament-EI. Les principales contributions sont: a) Le premier outil de détection de signaux à partir des banques de données administratives canadiennes; b) Contributions méthodologiques par la prise en compte de l'effet de déplétion des sujets à risque et le contrôle pour l'état de santé du patient. La revue a identifié 119 IMRs dans la littérature et 1,112 IMRs dans les sites web des agences réglementaires. La revue a démontré qu’il existe une augmentation des IMRs depuis l’introduction des guides réglementaires en 2005 mais leur efficacité demeure peu démontrée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

10.00% 10.00%

Publicador:

Resumo:

But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de Maîtrise ès sciences (M.Sc.) en criminologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’exploration des facteurs d’influence et des déterminants qui peuvent décrire et expliquer le comportement d’une entreprise multinationale lors d’un licenciement collectif pour fermeture d’usine mesuré à l’aune de l’idée de responsabilité sociale. Nous prenons pour base les conséquences sociales et économiques néfastes des licenciements collectifs sur les employés et les communautés ainsi que la faiblesse à cet égard du droit du travail québécois. De plus, nous établissons le lien entre la nature de la responsabilité sociale d’un point de vue théorique et la perspective empirique dans le cadre d’un processus de licenciement collectif. Pour arriver à cette fin, au niveau théorique, c’est à travers les critères éthiques de Garrett et Klonoski (1986) soit la juste cause, la minimisation des effets dommageables et la justice procédurale, que notre recherche a démontré qu’il était possible de déterminer de la responsabilité sociale d’une entreprise d’un point de vue empirique dans un contexte de licenciement collectif. Nous avons aussi regardé de près les différentes théories de la responsabilité sociale de l’entreprise pour finalement retenir une théorie instrumentale des parties-prenantes. Au plan méthodologique, nous avons utilisé une étude de cas unique soit celle de la fermeture partielle de l’usine de Rio Tinto Alcan située à Beauharnois au Québec. De plus, il a été possible de catégoriser l’approche adoptée par cette entreprise sous une taxonomie théorique de la responsabilité sociale, c’est donc une approche intégrative à deux niveaux : local et corporatif qui ressort de notre analyse. Au niveau local, nous avons identifié une perspective éthique reliée aux valeurs personnelles des individus devant mettre en place les mécanismes. Au niveau corporatif, c’est davantage une perspective instrumentale qui ressort. En ce sens, la multinationale estime devoir rendre des comptes à la fois à ses actionnaires et aux financiers afin d’établir une légitimité nécessaire ainsi qu’au politique (entre autre municipal et provincial) afin d’avoir accès aux ressources convoitées et nécessaires à son exploitation, de là l’importance de son image corporative. Le type d’entreprise doit être pris en considération, dans le secteur des ressources naturelles, le rôle et l’implication du politique s’avère central car il permet un accès aux ressources, essentiels à la survie de l’entreprise. L’apport de cette recherche se retrouve principalement dans l’étude du concept de responsabilité sociale à travers un phénomène important pour les relations industrielles soit celui des licenciements collectifs. Elle élargie aussi le champ théorique habituelle des relations industrielles en prenant en compte un cadre de la responsabilité sociale qui permet d’étudier des phénomènes sous un nouvel angle qui tient compte des priorités actuelles des multinationales dans un contexte d’ouverture des marchés et de recherche de légitimité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’agression sexuelle (AS) commise envers les enfants est un sujet complexe à enquêter et les allégations reposent souvent exclusivement sur le témoignage de l’enfant. Cependant, même quand l’enfant divulgue une AS, il peut être réticent à révéler certains détails personnels et gênants de l’AS à un étranger. Étant donné qu’il n'est pas toujours possible d'obtenir le consentement de filmer et qu’il est relativement difficile de mesurer l’attitude non verbale de l’enfant et celui de l’enquêteur au cours des entrevues d’investigations, cette recherche a été novatrice dans sa création d’échelles verbales de telles attitudes. Afin de déterminer la corrélation de l’attitude des enquêteurs et la collaboration des enfants, 90 entrevues d’enfants âgés de 4 à 13 ans ont été analysées. Les entrevues ont été enregistrées sur bande audio, transcrites et codifiées à l'aide des sous-échelles verbales d'attitudes soutenantes et non-soutenantes des enquêteurs ainsi que d’attitudes de résistance et de coopération de la part de l'enfant. La proportion des détails sur l’AS fournie par les enfants a également été calculée. Afin de comparer les entrevues avec et sans le protocole du National Institute of Child Health and Human Development (NICHD), une MANCOVA, contrôlant pour l’âge de l’enfant et la proportion de questions ouvertes, démontre tel qu’attendu que les entrevues avec le protocole obtiennent plus de détails fournis à la suite des questions ouvertes que les entrevues sans le protocole. Cependant, aucune différence ne ressort quant aux attitudes de l’enfant et celle de l’enquêteur. Afin de trouver le meilleur prédicteur de la quantité de détails dévoilés par les enfants, une analyse de régression multiple hiérarchique a été faite. Après avoir contrôlé pour l'âge de l’enfant, l’utilisation du protocole et la proportion de questions ouvertes, la résistance de l’enfant et l’attitude non-soutenante de l’enquêteur expliquent 28 % supplémentaire de la variance, tandis que la variance totale expliquée par le modèle est de 58%. De plus, afin de déterminer si la collaboration de l’enfant et l’attitude de l’enquêteur varient en fonction de l’âge des enfants, une MANOVA démontre que les enquêteurs se comportent similairement, quel que soit l'âge des enfants. Ceci, malgré le fait que les jeunes enfants sont généralement plus réticents et coopèrent significativement moins bien que les préadolescents. Finalement, une régression multiple hiérarchique démontre que le soutien de l'enquêteur est le meilleur prédicteur de la collaboration des enfants, au-delà des caractéristiques de l'enfant et de l’AS. Bien que l’utilisation du protocole NICHD ait permis des progrès considérables dans la manière d’interroger les enfants, augmentant la proportion de détails obtenus par des questions ouvertes/rappel libre et amplifiant la crédibilité du témoignage, l’adhésion au protocole n’est pas en soi suffisante pour convaincre des jeunes enfants de parler en détail d’une AS à un inconnu. Les résultats de cette thèse ont une valeur scientifique et contribuent à enrichir les connaissances théoriques sur les attitudes de l'enfant et de l'enquêteur exprimées lors des entrevues. Même si les enquêteurs de cette étude offrent plus de soutien aux enfants résistants, indépendamment de leur âge, pour promouvoir la divulgation détaillée de l’AS, de meilleures façons de contrer les attitudes de résistance exprimées par les jeunes enfants et une minimisation des attitudes non-soutenantes lors des entrevues sont nécessaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À cause de leur impact environnemental élevé, les déchets d’équipements électriques et électroniques (DEEE) sont un problème majeur pour les pays développés. La consommation importante de produits électroniques, dont la durée d’utilisation est de plus en plus courte, a entrainé une production croissante de DEEE. C’est dans ce contexte que l’Union européenne a instauré en 2003 la responsabilité élargie des producteurs (REP). Cet outil de politique environnementale a rendu légalement responsables les fabricants de la mise en oeuvre et du financement d’un programme d’intendance des DEEE. Alors que la REP vise principalement le traitement écologique des DEEE, cet instrument ne permet pas de réduire les quantités considérables qui sont produites par les consommateurs. Cette situation est d’autant plus inquiétante que les gains environnementaux obtenus, grâce à l’implantation de la REP, ont été annulés au regard de l’augmentation continue de la consommation de biens électroniques à l’échelle mondiale. En réponse à cette problématique, la présente thèse porte sur les pratiques de l’usager au cours de la phase de consommation des appareils électroniques (aussi appelée phase d’usage). Cette étape du cycle de vie regroupe l’achat, l’utilisation, la réparation et la mise au rebut des biens. Une approche qualitative de type exploratoire faisant appel à l’étude de cas a été utilisée. Le téléviseur, retenu comme cas d’étude, illustre des enjeux partagés par plusieurs équipements électroniques, tels que : la fréquente mise sur le marché de nouveaux modèles, le bas prix d’acquisition comparé au coût de la réparation et l’influence de la mode sur les choix effectués par le consommateur. Ces facteurs facilitent le remplacement des biens et, par conséquent, pourraient entrainer leur fin de vie prématurée qui se matérialise à travers différentes formes d’obsolescence. Dans le cadre de cette étude de cas, une trentaine d’entrevues semi-dirigées a été réalisée avec des usagers et réparateurs de produits électroniques en vue de documenter les différentes sous-étapes de la phase d’usage d’un téléviseur. Sur la base des informations recueillies, l’objectif de cette thèse est de formuler des recommandations, à destination des autorités politiques, qui pourront permettre une minimisation des impacts environnementaux liés à la phase d’usage des appareils électroniques. Les résultats ont permis de mettre en évidence, via le rôle et le statut singulier occupé par le téléviseur dans les foyers, les comportements de l’usager contribuant à augmenter l’empreinte écologique associée à la phase d’usage. L’acquisition de nombreux biens électroniques et non électroniques suite à l’achat du téléviseur, ses multiples fonctionnalités le rapprochant de celles de l’ordinateur et des tablettes, ainsi que la fin de vie prématurée de produits fonctionnels, mais obsolètes d’un point de vue technologique, font partie des résultats de cette recherche. En lien avec ces constats, cette étude propose des instruments de politique environnementale, dont l’affichage de la durée de vie des équipements électroniques, destinés à aider le consommateur à réaliser des choix plus éclairés au moment de l’achat. D’autres orientations, telles que la possibilité d’évoluer vers une réglementation horizontale, c’est-à-dire un cadre législatif qui ne se basera plus sur le produit individuel, mais sur l’ensemble des appareils ayant des fonctionnalités similaires, sont exposées. Par ailleurs, cette recherche explore certains leviers pouvant minimiser le phénomène de fin de vie prématurée des appareils électroniques, tels que l’envoi de biens obsolètes et fonctionnels des pays développés vers ceux en développement pour permettre leur réutilisation et la tendance du Do-It- Yourself dans la réparation des produits électroniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.