53 resultados para Ciblage endosomique
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
There is no definition of orphans that would allow to know without confusion who is an orphan child. This article analyses the challenges and difficulties in defining and targeting the social category of orphans. It is based on a number of works, as well as the field research on the social actor's logics regarding the family support to orphans among the Mossi people in Ouagadougou (Burkina Faso), for my Ph.D. in sociology at Laval University (Canada). In fact, international charity organisations use orphans as a vulnerable and universal category. This has been done through the propagation of information on HIV. From the social sciences perspective, the category of orphans covers a variety of realities, and making the choice to see it otherwise would hide the diversity of those realities.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Les nouvelles technologies et l’arrivée de l’Internet ont considérablement facilité les échanges transnationaux de données entre les entreprises publiques et/ou privées et également entre les personnes elles-mêmes. Cependant cette révolution numérique n’a pas été sans conséquences sur l’utilisation de nos données personnelles puisque cette abondance de données à la portée de tiers peut conduire à des atteintes : la commercialisation des données personnelles sans le consentement de l’intéressé par des entreprises ou encore la diffusion de sa photographie, de son nom, de son prénom à son insu en sont des exemples. La question qui vient alors se poser est en cas de litige, c’est-à-dire en cas d’atteintes au droit à la protection de nos données personnelles, présentant un ou des éléments d’extranéité, quels tribunaux pouvons-nous saisir ? Et quelle est la loi qui sera applicable ? Les droits québécois, de l’Union européenne, et suisse présentent différents critères de rattachement intéressants et adaptés à des situations prenant place hors et sur internet. Le droit commun de chacun de ces systèmes est envisagé, puis appliqué aux données personnelles dans le cadre d’une situation normale, et ensuite à internet si la situation diffère. La doctrine est également analysée dans la mesure où certaines solutions sont tout à fait intéressantes, et cela notamment sur internet. Un premier chapitre est consacré à la compétence internationale des tribunaux et aux critères de rattachement envisageables en droit commun à savoir notamment : le tribunal de l’État de survenance du préjudice, le tribunal de l’État de la faute ou encore le tribunal du domicile de la victime. Et ceux prévus ou non par la doctrine tels que l’accessibilité et le ciblage par exemple. Les conflits de lois sont étudiés dans un deuxième chapitre avec également l’énumération les différents facteurs de rattachement envisageables en droit commun comme la loi de l’État du préjudice, la loi de l’État de la faute ou encore la loi de l’État favorisant la victime. Et également ceux prévus par la doctrine : la loi de l’État « offrant la meilleure protection des données à caractère personnel » ou encore la loi de l’État où est établi le « maître du fichier ». Le tribunal le plus compétent au regard des principes généraux de droit international privé en cas d’atteintes au droit de la protection des données personnelles hors et sur internet est le tribunal de l’État du domicile de la victime. Et la meilleure loi applicable est la loi de l’État du domicile ou de la résidence principale du demandeur et du défendeur à l’instance, et dans le cas où la situation ne présente pas d’éléments d’extranéité, la meilleure loi est la loi favorisant la victime.
Resumo:
Les nouvelles technologies et l’arrivée de l’Internet ont considérablement facilité les échanges transnationaux de données entre les entreprises publiques et/ou privées et également entre les personnes elles-mêmes. Cependant cette révolution numérique n’a pas été sans conséquences sur l’utilisation de nos données personnelles puisque cette abondance de données à la portée de tiers peut conduire à des atteintes : la commercialisation des données personnelles sans le consentement de l’intéressé par des entreprises ou encore la diffusion de sa photographie, de son nom, de son prénom à son insu en sont des exemples. La question qui vient alors se poser est en cas de litige, c’est-à-dire en cas d’atteintes au droit à la protection de nos données personnelles, présentant un ou des éléments d’extranéité, quels tribunaux pouvons-nous saisir ? Et quelle est la loi qui sera applicable ? Les droits québécois, de l’Union européenne, et suisse présentent différents critères de rattachement intéressants et adaptés à des situations prenant place hors et sur internet. Le droit commun de chacun de ces systèmes est envisagé, puis appliqué aux données personnelles dans le cadre d’une situation normale, et ensuite à internet si la situation diffère. La doctrine est également analysée dans la mesure où certaines solutions sont tout à fait intéressantes, et cela notamment sur internet. Un premier chapitre est consacré à la compétence internationale des tribunaux et aux critères de rattachement envisageables en droit commun à savoir notamment : le tribunal de l’État de survenance du préjudice, le tribunal de l’État de la faute ou encore le tribunal du domicile de la victime. Et ceux prévus ou non par la doctrine tels que l’accessibilité et le ciblage par exemple. Les conflits de lois sont étudiés dans un deuxième chapitre avec également l’énumération les différents facteurs de rattachement envisageables en droit commun comme la loi de l’État du préjudice, la loi de l’État de la faute ou encore la loi de l’État favorisant la victime. Et également ceux prévus par la doctrine : la loi de l’État « offrant la meilleure protection des données à caractère personnel » ou encore la loi de l’État où est établi le « maître du fichier ». Le tribunal le plus compétent au regard des principes généraux de droit international privé en cas d’atteintes au droit de la protection des données personnelles hors et sur internet est le tribunal de l’État du domicile de la victime. Et la meilleure loi applicable est la loi de l’État du domicile ou de la résidence principale du demandeur et du défendeur à l’instance, et dans le cas où la situation ne présente pas d’éléments d’extranéité, la meilleure loi est la loi favorisant la victime.
Resumo:
La présence des contaminants organiques dans l’environnement est une problématique aux enjeux aussi bien scientifiques que politiques. Le caractère diffus et continu (différentes et multiples sources) de cette contamination ne permet pas à ces molécules biologiquement actives d’être soumises à une législation. Ces molécules, pouvant être très récalcitrantes, ne sont pas systématiquement éliminées par les systèmes de traitement des eaux conventionnels. Actuellement, de nouveaux procédés biotechnologiques basés sur des enzymes extracellulaires (e.g. Laccase) ou des champignons lignivores permettent l’élimination des composés les plus récalcitrants. Notre compréhension des mécanismes impliqués dans cette élimination reste incomplète. En effet, la biosorption et l’activité des enzymes extracellulaire sont les mécanismes les plus souvent mis en avant pour expliquer l’efficacité des procédés d’élimination fongique, mais ne sont pas capables d’expliquer les performances obtenues pour certains composés pharmaceutiques. Ces lacunes dans nos connaissances sur les mécanismes responsables de l’élimination fongique des contaminants organiques sont un frein à la pleine exploitation de ces procédés de traitement. De plus, il est forcé d’admettre qu’un grand nombre de travaux portant sur l’élimination fongique de contaminants organiques ont été réalisés dans des conditions de hautes concentrations, qui peuvent être peu représentatives des matrices environnementales. Ainsi, les effets observés à plus forte concentration peuvent etre le résultat dû au stress de l’organisme au contact des contaminants (toxicités). Cette thèse adresse deux questions ; ainsi quelle est l’influence des concentrations traces sur de tels procédés ? Et comment expliquer l’élimination de certains contaminants organiques lors des traitements fongiques ? Afin d’apporter des éléments de réponse sur les mécanismes mis en jeux lors de l’élimination fongique, les travaux présentés ici ont été réalisés sur un modèle de champignon lignivore connu pour ses propriétés en bioremediation. Dans un premier temps, un développement analytique permettant la quantification d’une sélection de contaminants organiques à l’état de traces a été réalisé. Cette méthode a permis d’effectuer des analyses de ces molécules à partir d’un seul échantillon environnemental de faible biomasse et à partir d’une seule injection instrumentale. Les résultats de cette thèse démontrent que l’élimination fongique de contaminants organiques résulte de mécanismes plus complexes que précédemment décrits. Notamment, la dégradation est fortement dépendante d’une étape initiale d’internalisation du contaminant par l’organisme ciblé et de la dégradation intracellulaire. Les mécanismes impliqués peuvent ainsi donnés lieux à des réactions de conjugaison intracellulaire des molecules (glucuronide, glutathione). Les résultats démontrent également que ces procédés d’élimination fongique sont efficaces sur une large gamme de concentration en contaminants organiques. Cependant, les faibles concentrations modifient les propriétés physico-chimiques et biologiques de l’organisme testé (i.e. un changement de la morphologie et du profil de la production enzymatique). La réponse biologique n’étant pas directement proportionnelle a l’exposition en contaminant. Cette étude a permis d’accroitre notre compréhension des mécanismes impliqués dans la dégradation fongique de contaminants organiques. Ceci ouvre la voie à de nouvelles études portant sur les interactions entre processus intra — et extracellulaires. Cette thèse contribue également à l’amélioration des connaissances en offrant des outils de compréhension nécessaire à l’optimisation et au développement du potentiel de ces procédés biotechnologiques (ciblage et role des enzymes réeellement impliquées dans les réactions de biocatalyse).
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.