999 resultados para Union économique et monétaire
Resumo:
L'Amérique latine se caractérise comme une région ayant la pire répartition de la richesse et le Mexique n'y fait pas exception. Malgré que la dernière décennie lui ait apporté la stabilisation économique et la libéralisation des échanges commerciaux, l'écart entre les riches et les pauvres continue de croître. Pour certains experts, la cause principale de cette situation réside dans les effets de la mondialisation. Bien qu'ils contribuent à déstabiliser les économies locales, d'autres éléments présents au Mexique menacent autant le développement durable des communautés mexicaines. Notons la fragilité des démocraties, la faiblesse des institutions financières, les histoires de corruption et de trafic de drogue, l'exclusion sociale et la dégradation de l'environnement. Plusieurs programmes de développement socioéconomiques ont été mis en place par différents gouvernements mexicains. Que ce soit, des programmes en matière de santé et d'éducation, des programmes alimentaires et agricoles ou de construction d'infrastructures, ils visent essentiellement à réduire la pauvreté en milieux ruraux. Les problèmes sociaux en zones urbaines ne font pas partie des priorités actuelles de l'agenda politique du gouvernement fédéral. Les communautés urbaines doivent donc se tourner vers d'autres moyens pour assurer leur développement et, la micro-finance est l'une des solutions qui a depuis longtemps fait ses preuves en matière de mobilisation des populations hasardeuses. En effet, elle permet aux populations exclues des systèmes financiers traditionnels d'avoir un plus grand contrôle de leur avenir par l'auto emploi et par le développement endogène de leur communauté. Elle introduit donc une dynamique d'autonomie et vise des changements économiques et sociaux à long terme. Par contre, une des plus grandes erreurs commises est pourtant de prétendre que la micro-finance est le remède de toutes les calamités. Les besoins des populations moins nanties en zones urbaines ne se limitent pas aux besoins de financement. Les pauvres ont également besoin de logements salubres, d'eau potable, d'électricité, de soins de santé, d'écoles et d'infrastructure, ce en quoi tout être humain est en droit de posséder. De plus, le développement durable n'est pas qu'une question de solution aux problèmes de pauvreté, il concerne également tous les citadins. Lorsque l'on parle de qualité de vie, on parle également d'emplois disponibles, de revitalisation de quartiers, d'aménagement d'espaces verts, de construction de centres sportifs et culturels, pour en nommer que quelques-uns. En l'absence de volonté ou de moyens politiques en la matière, la coopérative d'épargne et de crédit peut-elle être un levier de développement local pour une communauté urbaine mexicaine? C'est la question à laquelle je me suis attardée ces derniers mois, en analysant le contexte socio-économique de la ville de Querétaro au Mexique. Pour ce faire, j'ai exécuté d'abord une intervention dans une importante coopérative d'épargne et de crédit et je me suis ensuite documentée à travers des entrevues formelles et informelles, des observations, des conférences diverses et la littérature locale et internationale. Après avoir présenté, dans le premier chapitre, le contexte socio-politico-économique du Mexique et en particulier celui de la municipalité de Querétaro, je décris, au chapitre 2, les différents problèmes que vivent au quotidien les citadins. Le chapitre 3 est consacré à l'environnement et aux ressources qu'offrent les coopératives mexicaines d'épargne et de crédit: leur importance, les principes, la législation, les forces et les faiblesses, les menaces et les opportunités, etc. Le chapitre suivant définit le développement local en zone urbaine, ses principes, le processus qui l'accompagne, les acteurs impliqués et la finalité. Enfin le chapitre 5 nous amène au coeur même de la réflexion, c'est-à-dire évaluer si la coopérative d'épargne et de crédit possède le potentiel nécessaire pour être un acteur important de développement local en zones urbaines mexicaines.
Resumo:
En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise. Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.
Resumo:
Le système financier, agricole, économique et social est en crise. Le bilan pessimiste qui se dresse devant nous requiert une attention accrue de la part des dirigeants, mais d’abord et avant tout, de la population. Présentement, les efforts sont mis dans l’atténuation des risques sur l’environnement, dans l’occultation des symptômes et finalement, à dissimuler le problème. Devant la nécessité d’engager une transition vers un nouveau système aux valeurs basées sur le bien commun, l’innovation et les générations futures, où se situe le Québec? L’objectif général de cet essai est de proposer un développement économique alternatif et positif pour pallier les lacunes du système capitaliste actuel. De cette manière, le Québec pourra réellement s’engager dans la voie de la viabilité. Pour ce faire, cet essai convaincra de l’inaptitude du Produit intérieur brut comme seule mesure de progrès des sociétés. Les indicateurs alternatifs permettent de peindre un portrait plus clair et plus fidèle de ce qui se trame en termes de progrès social, économique et naturel. Les bases de l’économie écologique comme les théories de la décroissance et de l’économie stationnaire sont d’une grande aide pour comprendre ce que ces indicateurs essaient de mesurer. C’est pour cela que les indicateurs de développement durable au Québec deviennent un bon champ d’analyse pour la province. Ceux-ci permettent de déterminer où se situe le Québec sur la voie de la viabilité. Les conclusions quantitatives de cette analyse permettent le développement d’une liste d’indicateurs alternatifs qui peuvent réellement dépeindre un portrait adéquat de la société québécoise en terme de viabilité. Les résultats de ces analyses permettent de conclure que le Québec se situe dans la même impasse que beaucoup de sociétés occidentales : l’économie de marché a réussi à empiéter et intégrer des concepts tels que le développement durable pour se transformer en capitalisme vert. C’est ainsi que le pouvoir du changement revient dans les mains de la population qui fait face à cette absorption capitaliste de la politique, de son développement et de la croissance verte. Les nouvelles approches de développement doivent être par le bas, inclusives, positives, collectives, concertées, organisées et par-dessus tout, communiquées et partagées. Il est temps que le Québec fonde son développement sur son capital humain, et le grand potentiel de sa population pour ainsi permettre la croissance de l’économie dite vernaculaire.
Resumo:
Dans ce travail, on utilise un MEGC statique pour aborder l'impact du développement des biocarburants sur la croissance économique et sociale au Sénégal. Notre choix d’utiliser un modèle d’équilibre général calculable (MEGC) pour cette étude se justifie par le fait qu’ils sont de nos jours des modèles macroéconomiques particulièrement adaptés à l’étude de politiques structurelles à moyen ou long terme. Le modèle a été développé sur la base du modèle EXTER issu de deux matrices légèrement différentes : l’une reflétant l’économie réelle du Sénégal de 2011 et mise à jour pour 2014 et l’autre étant une matrice hypothétique intégrant les données sur les agrocarburants obtenues à partir des calculs de l’auteure. Le modèle met en exergue les spécificités de l’intégration de ce secteur dans l’économie sénégalaise. Il met plus l’accent sur les secteurs énergivores vu que l’objectif principal étant la réduction de la dépendance énergétique du pays. Deux simulations sont réalisées afin d'effectuer cette analyse : une hausse de l’offre de travail et une subvention accordée aux secteurs des biocarburants comme première simulation et la deuxième simulation reprend la première simulation en y ajoutant une hausse du prix des importations des produits pétroliers. Ainsi, par les mécanismes d’équilibre général, les résultats nous montrent une évolution des agrégats macroéconomiques dans leur ensemble dans les deux simulations. Cependant, sauf dans certains secteurs, en généralité, l’intégration des agrocarburants et leur exploitation avantage beaucoup le pays sur presque tous les secteurs de l’économie.
Resumo:
Résumé : Par l’adoption des Projets de loi 33 et 34, en 2006 et 2009 respectivement, le gouvernement du Québec a créé de nouvelles organisations privées dispensatrices de soins spécialisés, soient les centres médicaux spécialisés. Il a de ce fait encadré leur pratique, notamment dans l’objectif d’assurer un niveau de qualité et de sécurité satisfaisant des soins qui y sont dispensés. L’auteure analyse les différents mécanismes existants pour assurer la qualité et la sécurité des soins offerts en centres médicaux spécialisés, afin de constater si l’objectif recherché par le législateur est rencontré. Ainsi, elle expose les mécanismes spécifiques prévus dans la Loi sur les services de santé et services sociaux applicables aux centres médicaux spécialisés qui jouent un rôle quant au maintien de la qualité et de la sécurité des services, de même que des mécanismes indirects ayant une incidence sur ce plan, tels que la motivation économique et les recours en responsabilité. Ensuite, elle s’attarde aux processus issus de la règlementation professionnelle. Elle arrive à la conclusion que deux mécanismes sont manquants pour rencontrer l’objectif visé par le législateur et propose, à ce titre, des pistes de solution.
Resumo:
Centrée essentiellement autour de la parole épiscopale congolaise, la présente recherche porte sur les articulations de la religion et du politique dans une perspective limitée au catholicisme en RDC. En prenant pour base empirique la ville de Kinshasa, elle thématise les effets des dynamiques religieuses sur les fermentations sociales et les changements politiques dans un contexte d’autoritarisme. Celui-ci est, dans ce travail, problématisé comme le fait conjoint de l’institution étatique et de l’organisation religieuse catholique. Le choix de cette approche relationnelle basée sur les interactions entre religion et politique, permet d’inscrire ce travail dans le champ d’études des sciences des religions. L’approche retenue s’appuie également sur les avancées de la sociologie politique et éclaire la régulation religieuse du politique, rarement étudiée par les sciences humaines. Cette recherche s’inscrit donc à l’intersection entre l’histoire, la sociologie, les sciences politiques, l’anthropologie, l’analyse du discours, la philosophie et la théologie. Sa thèse centrale est organisée autour d’une question principale : comment la religion participe-t-elle à la régulation du politique dans le contexte d’autoritarisme caractéristique de la RDC ? La réponse à cette question croise l’approche fonctionnelle de la religion et l’analyse des déclarations institutionnelles de l’épiscopat congolais. Elle esquisse les relations entre, d’une part, contextes et événements sociopolitiques et d’autre part, discours et pratiques religieuses. Elle construit la scène religieuse à partir de la trajectoire sociopolitique, économique et culturelle de la RDC entre 1990 et 2015, sous les Présidents J.-D. Mobutu, L.-D. Kabila et J. Kabila. Elle étudie l'offre normative de sens de leurs éminences J.-A. Malula, F. Etsou et L. Monsengwo. L’analyse de la rhétorique de l’épiscopat sur les élections vérifie la plausibilité sociale et l’efficience politique de la parole épiscopale congolaise. Elle se ressource dans la pragmatique de la communication telle que mise en œuvre dans l’analyse argumentative du discours de R. Amossy et dans celle du discours politique de P. Charaudeau. En mettant la focale sur l’objet linguistique « vérité des urnes », la recherche pose au niveau normatif, juridique et éthique, le problème de l’institutionnalisation d’un État de droit en RDC. Les élaborations sur ce dernier niveau s’articulent autour de l’inscription de l’éthique dans l’agir politique. L’examen des modes conventionnels d’action des chrétiens (élections de 2006 et 2011) et non conventionnels (marche des chrétiens de 1992 et 2012) conduit à éclairer les modes de reproduction ou de contestation de l’autoritarisme étatique par l’organisation religieuse. Il permet de promouvoir une démocratie des valeurs et d’action adossée à la parrhêsia. L’introduction de l’aléthique dans la vie publique donne à voir la parole épiscopale congolaise comme un discours ethopoïétique. C’est sur ce point précis que les élaborations de M. Foucault sur la parrhêsia aident à thématiser la capacité de la religion à informer et à influencer la démocratisation de la RDC. De là, la requête formulée pour un nouveau système d’action institutionnelle de l’organisation religieuse, susceptible de promouvoir le courage de la vérité en situation autoritaire. Cette innovation permet de tenir ensemble les valeurs démocratiques et les valeurs de l’Évangile, en les corrélant à la cohérence axiologique, à la probité morale et à l’intégrité existentielle des protagonistes de la démocratisation de la RDC.
Resumo:
Visant à contribuer à la pérennité de la musique d’art instrumentale, cette thèse aborde plusieurs sujets la concernant, autant sur les plans théorique et esthétique que pratique et compositionnel. Les deux principaux contextes observés sont ceux de la modernité et de l’économie de marché. Le premier, par le triomphe de la raison technicienne, aurait conduit à l’autonomie de l’art désormais confronté aux risques de l’autoréférence. Le deuxième, par la pression exercée sur le compositeur à la base de la chaîne création-production-diffusion, compromettrait cette autonomie qu’elle avait pourtant contribuée à rendre possible. Or, l’autonomie de l’art, en tant que conquête sur les plans esthétique, social, politique, économique et intellectuel, représente un enjeu de taille, puisque d’éventuelles compromissions envers des impératifs extérieurs impliquent un recul sur tous ces plans. Pour répondre à cette problématique, la thèse explore des pistes de réflexions et d’opérations pour réaffirmer – en le revendiquant – ce que la musique d’art possède en propre et qui mérite encore d’être entendu, militant ainsi pour la survie de ce qui la rend possible. Plus précisément, la dialectique du son et de la musique que je développe ici me permet, dans un premier temps, d’aborder les médiations successives conduisant des ondes mécaniques à se structurer dans notre conscience jusqu’à se transmettre à nous sous forme de patrimoine; puis, dans un deuxième temps, de décrire ma propre intention de communication par la musique en analysant deux œuvres de ma composition : Musique d’art pour quintette à cordes et Musique d’art pour orchestre de chambre II (partie 1.). Musique d’art pour quintette à cordes est une œuvre-concert de soixante-cinq minutes pour quatuor à cordes et contrebasse, spatialisation, traitement et mise en espace des musiciens. Il s’agit d’un projet de recherche-création de mon initiative que j’ai aussi mené à titre de producteur. Musique d’art pour orchestre de chambre II (partie 1.) est une œuvre de commande de quatorze minutes. Le retour critique portant sur l’ensemble des composantes caractéristiques du média ouvre la voie à une corrélation plus étroite entre son contenu et sa forme privilégiée de présentation, le concert. Cette corrélation peut amener le public à désirer visiter les œuvres et apprécier leur signification, préservant la musique d’art comme mode spécifique de connaissance du monde.
Resumo:
Child morbidity and mortality in Ethiopia is mainly due to vaccine preventable diseases. Although numerous interventions have been made since the 1980’s to increase vaccination coverage, the level of full immunization is low in the country. This study examines factors influencing children’s full immunization based on data on 1927 children aged 12-23 months extracted from the 2011 Ethiopian Demographic and Health Survey. Multinomial logistic regression model was fitted to identify predictors of full immunization. The result shows that only 24.3% of the children were fully immunized. There was significant difference between regions in immunization coverage in which Tigray, Dire Dawa, and Addis Ababa performed well. In Oromia, Afar, Somali, Benishangul-Gumuz, and Gambela regions, the likelihood of children’s full immunization was significantly lower. Children born to mothers living in households with better socio-economic status, with frequent access to media, and who visit health facilities for antenatal care were more likely to be fully immunized. The results imply the importance of narrowing regional differences, improving women’s socio-economic status and utilization of antenatal care services, and strengthening culture-sensitive media campaign as a means of achieving full immunization of all children
Resumo:
Ce congrès était organisé conjointement par les deux grandes associations de développement de l'aquaculture dans le monde: la World Aquaculture Society (WAS, 2300 membres) et la European Aquaculture Society (EAS, 550 membres). Le précédent s'était tenu à Nice, en mai 2000. Il a rassemblé pendant 5 jours plus de 3000 chercheurs et responsables institutionnels de 95 nationalités. Environ 600 communications orales étaient réparties sur 67 sessions suivant un système de 11 salles en parallèle. Entre les salles de conférence étaient présentés les panneaux des 460 posters. Sur le site, l'exposition commerciale accueillait 135 entreprises et organismes; elle a reçu la visite d'environ 2000 visiteurs dont la moitié d'Italiens (source: EAS). Le thème général du congrès était le lien entre la tradition et la technologie. L'objectif était de montrer que les technologies, dont l'image est ambivalente, constituent un outil remarquable de développement de l'aquaculture, y compris en tenant compte des contraintes de durabilité. En effet, les attentes du citoyen, comme du consommateur, restent centrées autour des notions de qualité, sécurité alimentaire, bien-être et santé animale. Les travaux portaient sur les disciplines classiques de l'aquaculture (nutrition, physiologie, génétique, etc) et leur relation avec les biotechnologies. Il faut souligner l'émergence de thèmes de plus en plus liés la démonstration que l'aquaculture peut s'intégrer dans détruire (capacité de charge d'un écosystème, animaux échappés, etc) et à la perception de la société (perception du consommateur, aquaculture et société, position des ONG écologistes, etc). L'U.E. était très présente avec 5 représentants et une implication marquée dans de plusieurs sessions. Sous différentes formes, ses représentants ont rappelé la volonté de l'UE de continuer à soutenir l'aquaculture, avec l'objectif de poursuivre le développement de ce secteur (4 % de croissance moyenne par an). L'aquaculture devrait générer 8 à 10 000 emplois nouveaux sur les 15 prochaines années, notamment dans la conchyliculture et la pisciculture marine au large avec comme mot clef l'intégration dans l'environnement, dans le tissu socio-économique côtier et dans l'imaginaire des gens, touristes, consommateurs, élus, etc. Ce congrès à vocation mondiale a attiré des représentants de régions habituellement peu représentées comme le Moyen Orient et la Chine, présente à de nombreuses sessions. Il a été aussi le lieu de multiples réunions satellites impliquant presque toujours des chercheurs français: grands programmes européens en cours comme SeaFood+, ASEM (coop. Europe - Asie) ou Consensus, assemblée générale de l'EAS, groupe de travail de l'UICN, etc. Ce type de réunion confirme l'importance des contacts personnels directs pour 1. Evaluer les grandes tendances mondiales du secteur 2. Etablir des contacts directs avec des chercheurs seniors des grandes équipes de recherche et des décideurs au niveau européen et extra-européen 3. Tester des idées et des projets de collaboration et de partenariat Il constitue un forum exceptionnel de diffusion de connaissances, d'informations et de messages. Il offre un espace de perception et de reconnaissance d'Ifremer par de nombreux acteurs de la communauté de recherche en aquaculture. Grâce à la variété thématique des sessions où des chercheurs d'Ifremer sont actifs, l'institut renforce sa notoriété notamment dans la dimension pluridisciplinaire. Cette capacité d'ensemblier est la qualité la plus demandée dans les conclusions d'ateliers et la plus rare dans les instituts présents. Le congrès révèle bien l'évolution de l'aquaculture mondiale: il y a 10 ans, la production de masse était au Sud et la technologie et les marchés au Nord (USA, Europe, Japon). Aujourd'hui, la progression économique et scientifique rapide des pays du Sud, surtout en Asie, crée des marchés locaux .solvables pour l'aquaculture (Chine, Inde) et fait émerger une capacité de recherche « de masse». Cette situation exige que la recherche occidentale évolue pour rester compétitive. Pour préserver un secteur important, qui concourt à la sécurité alimentaire en protéines de manière croissante (4% par an, record de toutes les productions alimentaires), la recherche européenne en aquaculture doit maintenir son effort afin de garder une longueur d'avance, surtout dans les secteurs qui seront vitaux dans la décennie: relations avec l'environnement naturel (durabilité dont la maîtrise des coûts énergétiques), qualité des produits, sécurité alimentaire, intégration socio-économique dans des espaces de plus en plus convoités, maîtrise de l'image de l'espèce « cultivée» (industrielle mais contrôlée) par rapport à l'image de l'espèce « sauvage» (naturelle mais polluée et surexploitée). En conséquence, l'UE conserve tout son potentiel de développement car l'essentiel de la valeur ajoutée sera de moins en moins dans la production en quantité mais dans sa maîtrise de la qualité. Cette évolution donne toute sa valeur à la recherche menée par Ifremer et ce d'autant plus que l'institut sera capable d'anticiper les besoins et les attentes des entreprises, des consommateurs, des associations comme des organisations internationales. Dans cette vision, réactivité, capacité d'ensemblier et réflexion prospective sont les qualités à développer pour que l'lfremer puisse donner toute sa mesure notamment dans la recherche en aquaculture. Ces enjeux sont à l'échelle internationale et Ifremer fait partie du petit nombre d'instituts capables de les traiter en large partenariat, en accord complet avec la politique souhaitée par l'UE
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Les actions de recherche synthétisées dans ce document ont été menées en partenariat avec des halieutes, écologues marins, statisticiens, modélisateurs et économistes ; partenaires au sein de l’Ifremer, d’organismes de recherche - IRD, CNRS, Institut National de Recherche Halieutique du Maroc - , et d’Enseignement Supérieur - Université de Bretagne Occidentale, Université du Littoral Côte d’Opale, Ecole Nationale d’Ingénieur de Brest, Université des Antilles et de la Guyane. Ces actions ont permis de consolider une communauté pluri-disciplinaire nationale pour aborder les questions de l’analyse intégrée et de la modélisation à l’échelle écosystémique de la durabilité écologique et économique de l’exploitation des ressources halieutiques dans un contexte climatique changeant. Elles ont permis par ailleurs une première application formelle significative au sein de l’Ifremer, de l’approche écosystémique des pêches en contexte tropical (Guyane) et la formalisation du concept de "Biodiversité Halieutique". Les méthodes d’analyse utilisées ont en premier lieu été développées pour le cas du plateau continental du Golfe de Gascogne. Ces méthodes ont ensuite été étendues et appliquées à d’autres plateaux continentaux dont les caractéristiques étaient très différentes en termes climatique, de fonctionnement physique, bio-géographique, d’exploitation halieutique, économique et de gestion de la pêche : au Maroc dans la zone sous influence d’un up-welling, et en Guyane sous l’influence de l’estuaire de l’Amazone. Des actions lancées en 2009 et en 2010, reprennent ces méthodes pour des cas d’application à un autre plateau continental, dans la région tropicale du nord de l’Australie, et pour des cas en zones littorales, en Guyane et aux îles Salomon. Les principaux résultats obtenus sont i) l’identification de changements dans la structure des peuplements de poissons de fond : l’analyse de l’évolution temporelle des caractéristiques des peuplements de fond notamment en terme de taille individuelle, de niveau trophique, d’affinité thermique des espèces (origine biogéographique) a montré l’existence d’effets conjoints de la pêche (sur-exploitation et effets écosystémiques) et des changements climatiques, en région tempérée comme en région tropicale ; ii) l’identification de changements dans la structure en espèce des débarquements des pêcheries à l’échelle des dernières décennies, ainsi que la diminution de leur valeur économique totale, à la fois conséquence des changements dans les peuplements mais conséquence aussi des changements intervenus dans les marchés internationaux des produits de la mer ; iii) Le poids des différents facteurs (pêche, climat, marchés…) est variable selon les cas d’étude, mais ceux qui sont décrits ici sont ceux, communs aux différents systèmes, qui semblent prépondérants ; iv) l’adaptation de modèles existants ainsi que le développement de nouveaux modèles maintenant opérationnels, depuis des échelles permettant une utilisation en terme d’expertise et de recommandation de gestion des pêcheries à court terme, jusqu’à des échelles permettant des projections exploratoires à long terme visant à comprendre les effets conjoints du climat, de la pêche et des marchés.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Os objetos desta pesquisa s??o: 1) a atua????o das elites burocr??ticas do Poder Executivo Federal no processo de transi????o pol??tica no Brasil, nos anos 1980; 2) as frentes de reforma na Nova Rep??blica, nas ??reas social, econ??mica e administrativa e 3) as tentativas de renova????o da gest??o p??blica representadas pela cria????o da Escola Nacional de Administra????o P??blica (ENAP) e da Carreira de Gestor Governamental (EPPGG). Esse era um contexto de reinstitucionaliza????o da fun????o diretiva do Estado e de deslocamento das fronteiras entre o burocr??tico e o pol??tico no setor p??blico brasileiro. A hip??tese central aqui defendida ?? de que a ENAP e a Carreira de Gestor Governamental eram duas op????es inovadoras frente ao dilema sobre quais seriam os pap??is cab??veis a pol??ticos e administradores na nova ordem democr??tica, mas tamb??m eram op????es sem enraizamento nos pactos e agendas de prioridades que viabilizaram a mudan??a de regime no pa??s. A Escola e a Carreira estavam em disson??ncia com as principais tend??ncias de recomposi????o das elites estatais na transi????o a partir do regime militar e sofreram bloqueios em raz??o disso, mas a pesquisa procurou desconstruir algumas narrativas sobre esses conflitos interburocr??ticos, que associam as resist??ncias impostas ?? ENAP e ?? Carreira pelos grupos de funcion??rios da Fazenda e Planejamento a interesses meramente corporativistas. Com um trajeto pelos estudos sobre as burocracias dos regimes militares e sobre as transi????es no Brasil e na Am??rica Latina, buscou-se aqui uma melhor identifica????o dos grupos integrantes das ???tecnoburocracias??? e de suas contribui????es para a moderniza????o administrativa e econ??mica do pa??s, na segunda metade do s??culo XX. Buscou-se revelar algumas conflu??ncias entre as ideias de tecnocratiza????o e profissionaliza????o das altas fun????es p??blicas e seus elos com as aspira????es pela reconstru????o do Estado sob bases mais democr??ticas, mostrando que, nos anos 1980, as propostas da SEDAP n??o eram os ??nicos projetos de moderniza????o em curso, tampouco os grupos que a elas se opuseram representavam interesses univocamente antidemocr??ticos.
Resumo:
AGM and Conference in Mechelen 27 – 30 April 2010
Resumo:
Dissertação de mestrado em Economia Monetária, Bancária e Financeira