522 resultados para partage de coûts


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le phénomène du commerce parallèle repose sur un constat de base à la fois simple et évident: le niveau des prix d’un même produit « créé et fabriqué » par le même titulaire peut souvent varier de manière importante d’un pays à l’autre, en raison notamment des disparités dans le revenu moyen des consommateurs, des règlementations nationales entravant les échanges, ou encore du niveau de concurrence qui peut être affecté par des restrictions d’ordre privé, telles que des conventions de partage de marchés ou des contrats de distribution. Les commerçants que l’on appelle « importateurs parallèles » achèteront le produit là où il est le moins cher, qu’il provienne directement du titulaire ou non, en vue de le revendre là où ils pourront faire le meilleur profit. Dans ce contexte, des problèmes apparaîtront dans le pays d’importation dans la mesure où les commerçants parallèles vendront, bien évidemment, moins cher que les distributeurs désignés par le titulaire. Le titulaire en sa qualité de « créateur » de produits, est souvent titulaire de droits de propriété intellectuelle qu’il désirera, non sans une certaine légitimité, « monnayer », tentant ainsi de cloisonner les marchés en vue d’obtenir le prix le plus élevé qu’un consommateur serait prêt à payer pour un produit « x » sur un marché « y ». Cet essai a pour mérite de mettre en tension, d'une part, la liberté des échanges et de la concurrence qui favorisent, notamment, l’obtention des produits au meilleur prix pour les acheteurs et les consommateurs et, d’autre part, la nécessité de protéger les efforts de création dans l’industrie afin que celle-ci continue à investir dans la recherche et le développement de nouveaux produits.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

C’est principalement par le cinéma que nous connaissons et partageons le réel des villes, même celles dans lesquelles nous vivons. Par le cinéma, nous découvrons plus de villes que nous n’en visiterons jamais. Nous connaissons des villes que nous n'avons jamais vues. Nous apprenons à découvrir des villes que nous connaissons déjà. Nous avons en mémoire des villes qui n'existent pas. Que nous soyons spectateur ou créateur, les villes existent d'abord dans notre imaginaire. Percevoir, représenter et créer sont des actes complémentaires qui mobilisent des fonctions communes. Toute perception est conditionnée par le savoir et la mémoire, elle dépend de la culture. Toute représentation, si elle veut communiquer, doit connaître les mécanismes et les codes mémoriels et culturels du public auquel elle s’adresse. Le cinéma ne fait pas que reproduire, il crée et il a appris à utiliser ces codes et ces mécanismes, notamment pour représenter la ville. L’étude du cinéma peut ouvrir aux urbanistes et aux professionnels de l’aménagement, de nouveaux champs de scientificité sur le plan de la représentation et de la perception comme partage du réel de la ville. La ville et le cinéma doivent alors être vus comme un spectacle dans son acception herméneutique, et de ce spectacle il devient possible d’en faire émerger un paradigme; ou dit autrement, the basic belief system or worldview that guides the investigator, not only in choices of methods but in ontologically and episemologically fundamental ways. (Guba & Lincoln, 1994) Ce paradigme, que nous proposons de décrire, de modéliser et dont nous montrons les fonctions conceptuelles; nous le désignons comme la Ville idéelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article évalue, du point de vue moral, les justifications possibles pour le recours à la taxation en vue de promouvoir des comportements « sains ». L’objectif est de démontrer qu’un tel instrument recevrait une meilleure justification, c’est-à-dire plus en accord avec des principes égalitariens respectueux de la liberté individuelle, s’ils s’inscrivaient dans une logique de mutualisation. Pour ce faire, les arguments du bien-être individuel et de l’efficience sociale sont discutés afin d’en pointer les fécondités et limites. Au travers de leurs limites, ces arguments introduisent naturellement à une troisième manière d’appréhender le problème, sous l’angle de la mutualisation. Ce principe représente moins une remise en cause radicale des arguments précédents qu’une reformulation du recours à l’efficience sociale et une limitation du champ d’application des appels au bien-être individuel. Il repose sur deux idées. La première est que la référence à une notion de responsabilité, même affadie, est nécessaire. De plus, celle-ci doit être conçue comme partagée entre producteurs et consommateurs ainsi que limitée au domaine financier. La seconde est que la mutualisation ne peut être déconnectée d’intuitions égalitariennes formulées de manière générale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les milieux de travail canadiens présentent des visages diversifiés et en pleine mutation. En raison de facteurs tels que les nouvelles technologies, la mondialisation, l’économie du savoir ou encore l’évolution démographique, la transformation des entreprises canadiennes passe par une main-d’œuvre qualifiée, adaptable et de qualité. Notre recherche s’inscrit dans le cadre des études s’intéressant aux comportements des entreprises en matière d’investissement en capital humain au Canada. Nous avons retenu un cadre théorique qui est constitué principalement de la théorie du capital humain, de celle des ressources internes et de l’approche des coûts et des bénéfices. Pour les fins de notre recherche, nous retenons une approche quantitative longitudinale, en utilisant des données secondaires issues du questionnaire des employeurs de l’Enquête sur le milieu de travail et les employés pour les années 1999 à 2005 inclusivement. La nature longitudinale de l’EMTE permet de corriger pour les biais liés à l’hétérogénéité non observée des firmes et à l’endogénéité possible de la variable de formation. Notre étude se divise globalement en trois articles. Dans les deux premiers cas, les dépenses en formation sont considérées comme une variable explicative de la productivité et du taux de roulement des employés. Dans le troisième cas, les dépenses de formation constituent la variable dépendante à l’étude. Le premier article examine l’effet des investissements en formation sur la productivité des entreprises canadiennes. La littérature scientifique traitant de l’impact de la formation sur la performance des entreprises continue de s’accroître dû aux nouvelles techniques d’estimations, à la disponibilité des données, et à l’intérêt grandissant pour le capital humain. Les résultats partiels des études antérieures montrent la possibilité que les retours des investissements réalisés en formation puissent avoir des effets au-dede l’année courante. Sur le plan théorique, cette hypothèse a du sens, mais au niveau empirique il semble que les liens formels entre la formation et la productivité des entreprises ne sont pas clairement identifiés. Nos résultats montrent que les investissements en formation réalisés avec trois années de retard engendrent des effets positifs et significatifs sur la productivité à court et à moyen termes. L’interaction entre les différents types d’investissements permet de vérifier l’hypothèse à l’effet que les investissements en capital physique et en capital humain soient complémentaires et se supportent mutuellement. Après avoir procédé à l’estimation de l’effet des dépenses en formation structurée sur la productivité des entreprises, nous nous demandons pour quelles raisons les employeurs demeurent réticents quant aux retours des investissements en formation ? Dans le cadre de cette seconde réflexion, nous nous intéressons à deux dimensions de l’estimation du roulement, à savoir le roulement de nature volontaire et une mesure de l’optimum. Les résultats obtenus quant à l’effet des dépenses en formation structurée par employé sur les taux de roulement volontaire et optimal montrent que la relation est positive dans les deux cas. Cet article vise également à vérifier si différents outils organisationnels associés aux relations industrielles peuvent avoir un effet sur la réduction du taux de roulement volontaire des employés. Nos résultats montrent aussi que la présence syndicale et la perception d’un bon climat de travail traduisent dans un sens, un environnement dans lequel l’employeur et les employés ont des intérêts communs pour la poursuite de mêmes objectifs. Dans le cadre du troisième article, nous examinons certains déterminants des investissements en formation structurée au sein des milieux de travail. Nos résultats montrent qu’une entreprise de grande taille, qui investit davantage en capital physique par employé par rapport à la moyenne, au sein de laquelle un grand pourcentage de travailleurs utilisent un ordinateur, où il y a une proportion élevée de nouvelles embauches et pour laquelle l’employeur introduit un système cohérent de pratiques dépense davantage en formation structurée qu’une entreprise qui ne possède pas ces caractéristiques, toutes choses égales par ailleurs. Ces résultats permettent de discuter également de la complémentarité des facteurs faisant partie d’un cercle vertueux de croissance des entreprises pouvant déterminer les investissements en formation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires (MCV) sont les principales causes de mortalité et de morbidité à travers le monde. En Amérique du Nord, on estime à 90 millions le nombre d’individus ayant une ou plusieurs MCV, à près de 1 million le nombre de décès reliés par année et à 525 milliards de dollars les coûts directs et indirects en 2010. En collaboration avec l’équipe du Dre. Boileau, notre laboratoire a récemment identifié, le troisième locus impliqué dans l’hypercholestérolémie familiale. Une étude publiée dans le New Engl J Med a révélé que l’absence de la convertase PCSK9 réduit de 88% le risque de MCV, corrélé à une forte réduction du taux de cholestérol plasmatique (LDL-C). Il fut démontré que PCSK9 lie directement le récepteur aux lipoprotéines de faible densité (LDLR) et, par un mécanisme méconnu, favorise sa dégradation dans les endosomes/lysosomes provoquant ainsi une accumulation des particules LDL-C dans le plasma. Dans cet ouvrage, nous nous sommes intéressés à trois aspects bien distincts : [1] Quels sont les cibles de PCSK9 ? [2] Quelle voie du trafic cellulaire est impliquée dans la dégradation du LDLR par PCSK9 ? [3] Comment peut-on inhiber la fonction de PCSK9 ? [1] Nous avons démontré que PCSK9 induit la dégradation du LDLR de même que les récepteurs ApoER2 et VLDLR. Ces deux membres de la famille du LDLR (fortes homologies) sont impliqués notamment dans le métabolisme des lipides et de la mise en place de structures neuronales. De plus, nous avons remarqué que la présence de ces récepteurs favorise l’attachement cellulaire de PCSK9 et ce, indépendamment de la présence du LDLR. Cette étude a ouvert pour la première fois le spectre d’action de PCSK9 sur d’autres protéines membranaires. [2] PCSK9 étant une protéine de la voie sécrétoire, nous avons ensuite évalué l’apport des différentes voies du trafic cellulaire, soit extra- ou intracellulaire, impliquées dans la dégradation du LDLR. À l’aide de milieux conditionnées dérivés d’hépatocytes primaires, nous avons d’abord démontré que le niveau extracellulaire de PCSK9 endogène n’a pas une grande influence sur la dégradation intracellulaire du LDLR, lorsqu’incubés sur des hépatocytes provenant de souris déficientes en PCSK9 (Pcsk9-/-). Par analyses de tri cellulaire (FACS), nous avons ensuite remarqué que la surexpression de PCSK9 diminue localement les niveaux de LDLR avec peu d’effet sur les cellules voisines. Lorsque nous avons bloqué l’endocytose du LDLR dans les cellules HepG2 (lignée de cellules hépatiques pour l’étude endogène de PCSK9), nous n’avons dénoté aucun changement des niveaux protéiques du récepteur. Par contre, nous avons pu démontrer que PCSK9 favorise la dégradation du LDLR par l’intermédiaire d’une voie intracellulaire. En effet l’interruption du trafic vésiculaire entre le réseau trans-Golgien (RTG) et les endosomes (interférence à l’ARN contre les chaînes légères de clathrine ; siCLCs) prévient la dégradation du LDLR de manière PCSK9-dépendante. [3] Par immunobuvardage d’affinité, nous avons identifié que la protéine Annexine A2 (AnxA2) interagit spécifiquement avec le domaine C-terminal de PCSK9, important pour son action sur le LDLR. Plus spécifiquement, nous avons cartographié le domaine R1 (acides aminés 34 à 108) comme étant responsable de l’interaction PCSK9AnxA2 qui, jusqu’à présent, n’avait aucune fonction propre. Finalement, nous avons démontré que l’ajout d’AnxA2 prévient la dégradation du LDLR induite par PCSK9. En somme, nos travaux ont pu identifier que d’autres membres de la famille du LDLR, soit ApoER2 et VLDLR, sont sensibles à la présence de PCSK9. De plus, nous avons mis en évidence que l’intégrité du trafic intracellulaire est critique à l’action de PCSK9 sur le LDLR et ce, de manière endogène. Finalement, nous avons identifié l’Annexine A2 comme unique inhibiteur naturel pouvant interférer avec la dégradation du LDLR par PCSK9. Il est indéniable que PCSK9 soit une cible de premier choix pour contrer l’hypercholestérolémie afin de prévenir le développement de MCV. Cet ouvrage apporte donc des apports considérables dans notre compréhension des voies cellulaires impliquées, des cibles affectées et ouvre directement la porte à une approche thérapeutique à fort potentiel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’athérosclérose est une maladie qui cause, par l’accumulation de plaques lipidiques, le durcissement de la paroi des artères et le rétrécissement de la lumière. Ces lésions sont généralement localisées sur les segments artériels coronariens, carotidiens, aortiques, rénaux, digestifs et périphériques. En ce qui concerne l’atteinte périphérique, celle des membres inférieurs est particulièrement fréquente. En effet, la sévérité de ces lésions artérielles est souvent évaluée par le degré d’une sténose (réduction >50 % du diamètre de la lumière) en angiographie, imagerie par résonnance magnétique (IRM), tomodensitométrie ou échographie. Cependant, pour planifier une intervention chirurgicale, une représentation géométrique artérielle 3D est notamment préférable. Les méthodes d’imagerie par coupe (IRM et tomodensitométrie) sont très performantes pour générer une imagerie tridimensionnelle de bonne qualité mais leurs utilisations sont dispendieuses et invasives pour les patients. L’échographie 3D peut constituer une avenue très prometteuse en imagerie pour la localisation et la quantification des sténoses. Cette modalité d’imagerie offre des avantages distincts tels la commodité, des coûts peu élevés pour un diagnostic non invasif (sans irradiation ni agent de contraste néphrotoxique) et aussi l’option d’analyse en Doppler pour quantifier le flux sanguin. Étant donné que les robots médicaux ont déjà été utilisés avec succès en chirurgie et en orthopédie, notre équipe a conçu un nouveau système robotique d’échographie 3D pour détecter et quantifier les sténoses des membres inférieurs. Avec cette nouvelle technologie, un radiologue fait l’apprentissage manuel au robot d’un balayage échographique du vaisseau concerné. Par la suite, le robot répète à très haute précision la trajectoire apprise, contrôle simultanément le processus d’acquisition d’images échographiques à un pas d’échantillonnage constant et conserve de façon sécuritaire la force appliquée par la sonde sur la peau du patient. Par conséquent, la reconstruction d’une géométrie artérielle 3D des membres inférieurs à partir de ce système pourrait permettre une localisation et une quantification des sténoses à très grande fiabilité. L’objectif de ce projet de recherche consistait donc à valider et optimiser ce système robotisé d’imagerie échographique 3D. La fiabilité d’une géométrie reconstruite en 3D à partir d’un système référentiel robotique dépend beaucoup de la précision du positionnement et de la procédure de calibration. De ce fait, la précision pour le positionnement du bras robotique fut évaluée à travers son espace de travail avec un fantôme spécialement conçu pour simuler la configuration des artères des membres inférieurs (article 1 - chapitre 3). De plus, un fantôme de fils croisés en forme de Z a été conçu pour assurer une calibration précise du système robotique (article 2 - chapitre 4). Ces méthodes optimales ont été utilisées pour valider le système pour l’application clinique et trouver la transformation qui convertit les coordonnées de l’image échographique 2D dans le référentiel cartésien du bras robotisé. À partir de ces résultats, tout objet balayé par le système robotique peut être caractérisé pour une reconstruction 3D adéquate. Des fantômes vasculaires compatibles avec plusieurs modalités d’imagerie ont été utilisés pour simuler différentes représentations artérielles des membres inférieurs (article 2 - chapitre 4, article 3 - chapitre 5). La validation des géométries reconstruites a été effectuée à l`aide d`analyses comparatives. La précision pour localiser et quantifier les sténoses avec ce système robotisé d’imagerie échographique 3D a aussi été déterminée. Ces évaluations ont été réalisées in vivo pour percevoir le potentiel de l’utilisation d’un tel système en clinique (article 3- chapitre 5).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le milieu clinique des soins intensifs, l’induction du coma médicamenteux (i.e. iatrogénique) par les sédatifs et les analgésiques est souvent associée à une augmentation significative du délirium. De plus, l’utilisation de sédatifs et d’analgésiques comme le fentanyl et le midazolam sans interruption et sans ajustement aux besoins du patient augmentent la durée de séjour, les coûts et la mortalité. Le but de cette étude était d’explorer les facteurs de variabilité pouvant influencer la survenue du coma iatrogénique et du délirium tel que : les facteurs génétiques/sociodémographiques et la co-administration de médicaments substrats ou inhibiteurs de CYP3A4/3A5 ou de la glycoproteine P. L’étude prospective à visée observationnelle a été effectuée à l’unité de soins intensifs de l’hôpital Maisonneuve-Rosemont avec 53 patients perfusés avec fentanyl ou midazolam. La faisabilité du modèle pharmacocinétique du fentanyl a été mise en évidence à partir des échantillons sanguins des patients et était compatible avec les données cliniques. Cette étude montre donc que contrairement au profil génomique de CYP3A5 (p value = 0,521) et MDR1 (p value = 0,828), les effets des interactions médicamenteuses entre les inhibiteurs CYP3A4/CYP3A5 et fentanyl/midazolam représentent un facteur de risque pour le coma iatrogénique (p value = 0,014). Ces effets peuvent être facilement identifiés et sont prévisibles; résultats qui seront utiles aux praticiens – intensivistes dans le choix d’une thérapie pharmacologique appropriée pour prévenir les complications morbides comme le coma iatrogénique et le délirium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compte tenu de l ’importante augmentation de l ’espérance de vie de la population générale observée dans les dernières décennies, les études portant sur les modifications des fonctions cognitives lors du vieillissement normal et pathologique se révèlent d'un grand intérêt. Les résultats rapportés dans cette thèse contribuent à une meilleure compréhension de la nature des modifications avec l ’âge du traitement du sens métaphorique des mots et du phénomène de réorganisation fonctionnelle sous-tendant ces processus. Après une revue de littérature (chapitre 1), un premier article définissant la problématique générale du traitement du langage lors du vieillissement normal inaugure la série de travaux présentés dans cette thèse. Cet article, présenté dans le chapitre 2, confirme l ’importance du développement d ’études spécifiques permettant de faire le lien entre les différentes hypothèses portant sur les changements cognitifs propres au vieillissement normal et celles portant sur les changements propres au substrat neurobiologique du langage. Le chapitre 3 présente une étude comportementale ayant pour objectif d ’évaluer la disponibilité des ressources attentionnelles pour le traitement phonologique et sémantique des mots ainsi que son évolution possible avec l ’âge. Les conclusions tirées de cette étude vont dans le sens d ’une restriction des ressources attentionnelles particulièrement pour le traitement du sens métaphorique des mots lors du vieillissement normal. Le chapitre 4 présente une étude en neuroimagerie fonctionnelle. Cette étude a été réalisée afin de comparer les profils d'activation cérébrale des participants jeunes et âgés lors du traitement du sens métaphorique des mots. Les résultats obtenus soulignent qu ’autant pour les participants jeunes que pour les participants âgés, le traitement du sens métaphorique des mots pourrait imposer au cerveau le partage des ressources attentionnelles. Néanmoins, ils montrent une réorganisation fonctionnelle chez les participants âgés. L ’ensemble des travaux présentés appuie l ’hypothèse d ’une attribution différentielle des ressources attentionnelles ainsi que celle d ’une réorganisation fonctionnelle chez les participants âgés pour le traitement du sens métaphorique des mots. Les résultats viennent enrichir la compréhension des modèles neurocognitifs du vieillissement en ce qui concerne l ’évolution des bases neurobiologiques du langage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte de la mondialisation contemporaine, le développement d’une structure de gouvernance à plusieurs niveaux nous oblige à revoir notre compréhension de la souveraineté de l’État et de l’exercice de la démocratie. Notre objectif consiste à présenter la pensée de David Held au sujet des conséquences de ces transformations de la gouvernance politique sur la théorie démocratique. Dans un premier temps, nous analyserons les conséquences de l’atténuation de la souveraineté de l’État, dorénavant partagée avec diverses organisations supranationales, sur la théorie de l’État démocratique moderne. Nous verrons comment Held répond au déficit démocratique constaté au sein de ces organisations, en adaptant le principe de subsidiarité au système de gouvernance multicouche émergeant, et ce, afin de rétablir la congruence entre les décideurs et les destinataires de leurs décisions, caractéristique de l’activité (libérale) démocratique. Dans un deuxième temps, nous présenterons les fondements normatifs du modèle théorique qu’il préconise pour assurer la démocratisation de ce nouveau système de gouvernance. Nous verrons pourquoi, selon Held, la poursuite de l’idéal démocratique exige aujourd’hui la mise en oeuvre d’une variété de droits, inspirés des valeurs sociales-démocrates, qu’il faut enchâsser dans le cadre constitutionnel de toutes les institutions de gouvernance du monde contemporain. De plus, nous dégagerons les objectifs institutionnels qu’il faut atteindre afin de parvenir à la réalisation d’une social-démocratie mondiale. Nous conclurons avec une brève analyse critique de son interprétation du principe de subsidiarité et de son approche “du haut vers le bas” (top-down) des processus conduisant à la démocratisation des institutions supranationales.