746 resultados para Commande optimale linéaire-quadratique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Exploration empirique et théorique des diverses contraintes sociales agissant sur la pratique de la critique musicale dans les médias montréalais en contexte de compétition marchande. Pour ce faire, une enquête sociologique qualitative fut menée auprès d’un échantillon de dix animateurs et journalistes musicaux de Montréal. L’auteur développe une théorie selon laquelle critiquer esthétiquement consiste à trier et à choisir en fonction du goût au moyen d’un concept appelé « dynamique EGC », soit le processus par lequel les expériences esthétiques sont filtrées par le goût, qui commande une réponse actée sous forme de critique d’art. Sa recherche s’intéresse d’abord aux impératifs (obstacles) du métier d’animateur et de journaliste musical et montre que c’est la compétition marchande qui prédomine dans un tel travail parce qu’elle surplombe tout le reste. Le mémoire s’attarde ensuite à étudier les déterminismes sociaux poussant certains individus à vouloir pratiquer ce métier. Il est montré que les déterminismes particuliers incitant à la pratique du métier d’animateur musical ne sont pas les mêmes que ceux incitant à la pratique du journalisme musical. Les animateurs sont des « conservateurs esthétiques » qui aiment constamment partager implicitement leur passion, tandis que les journalistes sont des « progressistes esthétiques » préférant donner leur avis explicitement lorsque nécessaire, mais pas nécessairement tout le temps. Dans tous les cas, animateurs et journalistes musicaux sont à comprendre comme des « militants esthétiques », des gens qui tentent de convaincre en même temps qu’ils tentent d’acquérir de la notoriété critique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract: Quantitative Methods (QM) is a compulsory course in the Social Science program in CEGEP. Many QM instructors assign a number of homework exercises to give students the opportunity to practice the statistical methods, which enhances their learning. However, traditional written exercises have two significant disadvantages. The first is that the feedback process is often very slow. The second disadvantage is that written exercises can generate a large amount of correcting for the instructor. WeBWorK is an open-source system that allows instructors to write exercises which students answer online. Although originally designed to write exercises for math and science students, WeBWorK programming allows for the creation of a variety of questions which can be used in the Quantitative Methods course. Because many statistical exercises generate objective and quantitative answers, the system is able to instantly assess students’ responses and tell them whether they are right or wrong. This immediate feedback has been shown to be theoretically conducive to positive learning outcomes. In addition, the system can be set up to allow students to re-try the problem if they got it wrong. This has benefits both in terms of student motivation and reinforcing learning. Through the use of a quasi-experiment, this research project measured and analysed the effects of using WeBWorK exercises in the Quantitative Methods course at Vanier College. Three specific research questions were addressed. First, we looked at whether students who did the WeBWorK exercises got better grades than students who did written exercises. Second, we looked at whether students who completed more of the WeBWorK exercises got better grades than students who completed fewer of the WeBWorK exercises. Finally, we used a self-report survey to find out what students’ perceptions and opinions were of the WeBWorK and the written exercises. For the first research question, a crossover design was used in order to compare whether the group that did WeBWorK problems during one unit would score significantly higher on that unit test than the other group that did the written problems. We found no significant difference in grades between students who did the WeBWorK exercises and students who did the written exercises. The second research question looked at whether students who completed more of the WeBWorK exercises would get significantly higher grades than students who completed fewer of the WeBWorK exercises. The straight-line relationship between number of WeBWorK exercises completed and grades was positive in both groups. However, the correlation coefficients for these two variables showed no real pattern. Our third research question was investigated by using a survey to elicit students’ perceptions and opinions regarding the WeBWorK and written exercises. Students reported no difference in the amount of effort put into completing each type of exercise. Students were also asked to rate each type of exercise along six dimensions and a composite score was calculated. Overall, students gave a significantly higher score to the written exercises, and reported that they found the written exercises were better for understanding the basic statistical concepts and for learning the basic statistical methods. However, when presented with the choice of having only written or only WeBWorK exercises, slightly more students preferred or strongly preferred having only WeBWorK exercises. The results of this research suggest that the advantages of using WeBWorK to teach Quantitative Methods are variable. The WeBWorK system offers immediate feedback, which often seems to motivate students to try again if they do not have the correct answer. However, this does not necessarily translate into better performance on the written tests and on the final exam. What has been learned is that the WeBWorK system can be used by interested instructors to enhance student learning in the Quantitative Methods course. Further research may examine more specifically how this system can be used more effectively.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : CEGEPs are now reaping the ‘first fruits’ of the last Educational Reform in Quebec and as a result, ‘English as Second Language’ (ESL) teachers are noticing an improvement in fluency and a seemingly lower level of inhibition when it comes to production skills. However, this output is accompanied by a noticeable lack of accuracy. Keeping in mind that the purpose of language is communication, we need to find a way to reduce the number of basic common errors made by CEGEP ESL students, while maintaining a natural and motivating learning environment. Thanks to recent advances in computer-mediated communication (CMC), we now have the necessary tools to access peer native speakers throughout the world. Although this technology can be used for other language courses, this study explored the potential value of collaboration with native English speakers through the use of synchronous screen-sharing technology, in order to improve CEGEP ESL students’ accuracy in writing. The instrumentation used consisted of a questionnaire, tests, plus documents of collaborative tasks, using the ‘Google for Education’ screen-sharing tool. Fourteen Intermediate/Advanced ESL CEGEP students participated in this study. Despite the positive tendencies revealed, only a prolonged use of the innovative method yielded a significant positive impact. Moreover, a mixed linear regression for the group with more L1 intervention revealed a significant correlation between the number of errors in the task documents and the number of tasks accomplished. Thus, it could be inferred that ESL accuracy improves in proportion to the number of synchronous text-based screen-sharing tasks done with L1 collaboration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pigeon pea ( Cajanus cajan (L.) Millsp.) is a drought tolerant pulse legume, mainly grown for grain in the semi-arid tropics, particularly in Africa. Pigeon pea production in countries like Kenya is faced with a number of challenges, particularly lack of high quality seeds. The objective of this study was to develop an in vitro regeneration system for pigeon pea varieties grown in Kenya, that is amenable to genetic transformation. In vitro regeneration of pigeon pea varieties, KAT 60/8 and ICEAP 00557, commonly grown in Kenya was achieved using leaf explants from in vitro grown seedlings, through callus initiation, followed by shoot and root induction. For callus initiation, MS media supplemented with 0.5-4 mg l-1 2, 4-D and TDZ separately were tested, and IBA at 0.1, 0.5 and 1 mg l-1 was tested for rooting of shoots. Embryogenic calli was obtained on MS containing 2, 4- D; whereas TDZ induced non-embryogenic callus alone or with shoots directly on explants. Indirect shoot regeneration frequency of 6.7 % was achieved using 1 mg l-1 2, 4-D-induced embryogenic callus obtained using KAT 60/8 explants. Whereas direct shoot regeneration frequencies of 20 and 16.7% were achieved using ICEAP 00557 and KAT 60/8 explants, using 0.5 mg l-1 and 2 mg l-1 TDZ, respectively. Optimum rooting was achieved using 0.5 mg l-1 IBA; and up to 92% rooted shoots were successfully established in soil after acclimatisation. Genotype and hormone concentrations had a significant (P<0.05) influence on callus, shoot and root induction. The protocol developed can be optimised for mass production and genetic transformation of KAT 60/8 variety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visant à contribuer à la pérennité de la musique d’art instrumentale, cette thèse aborde plusieurs sujets la concernant, autant sur les plans théorique et esthétique que pratique et compositionnel. Les deux principaux contextes observés sont ceux de la modernité et de l’économie de marché. Le premier, par le triomphe de la raison technicienne, aurait conduit à l’autonomie de l’art désormais confronté aux risques de l’autoréférence. Le deuxième, par la pression exercée sur le compositeur à la base de la chaîne création-production-diffusion, compromettrait cette autonomie qu’elle avait pourtant contribuée à rendre possible. Or, l’autonomie de l’art, en tant que conquête sur les plans esthétique, social, politique, économique et intellectuel, représente un enjeu de taille, puisque d’éventuelles compromissions envers des impératifs extérieurs impliquent un recul sur tous ces plans. Pour répondre à cette problématique, la thèse explore des pistes de réflexions et d’opérations pour réaffirmer – en le revendiquant – ce que la musique d’art possède en propre et qui mérite encore d’être entendu, militant ainsi pour la survie de ce qui la rend possible. Plus précisément, la dialectique du son et de la musique que je développe ici me permet, dans un premier temps, d’aborder les médiations successives conduisant des ondes mécaniques à se structurer dans notre conscience jusqu’à se transmettre à nous sous forme de patrimoine; puis, dans un deuxième temps, de décrire ma propre intention de communication par la musique en analysant deux œuvres de ma composition : Musique d’art pour quintette à cordes et Musique d’art pour orchestre de chambre II (partie 1.). Musique d’art pour quintette à cordes est une œuvre-concert de soixante-cinq minutes pour quatuor à cordes et contrebasse, spatialisation, traitement et mise en espace des musiciens. Il s’agit d’un projet de recherche-création de mon initiative que j’ai aussi mené à titre de producteur. Musique d’art pour orchestre de chambre II (partie 1.) est une œuvre de commande de quatorze minutes. Le retour critique portant sur l’ensemble des composantes caractéristiques du média ouvre la voie à une corrélation plus étroite entre son contenu et sa forme privilégiée de présentation, le concert. Cette corrélation peut amener le public à désirer visiter les œuvres et apprécier leur signification, préservant la musique d’art comme mode spécifique de connaissance du monde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adversité tôt dans la vie est associée au développement de symptômes anxieux pouvant perdurer jusqu’à l’âge adulte (Casey et el, 2010, Pine 2003). Des études chez l’adulte suggèrent que ces liens pourraient être associés à des altérations du « circuit de la peur » qui inclut l’amygdale, l’hippocampe antérieur, l’insula et le cortex préfrontal (Marek, 2013, Etkin & Wager, 2007). Ceci a cependant peu été étudié chez les jeunes. L’objectif principal de cette thèse était de définir les corrélats comportementaux, physiologiques, biologiques et neuronaux du traitement de la peur chez les jeunes en bonne santé, en lien ou non avec un historique d’adversité -- sous la forme de pratiques parentales coercitives -- et d’anxiété. D’abord, puisque nous nous intéressions aux pratiques parentales coercitives chroniques, nous avons examiné leur évolution et facteurs de risque, en nous concentrant sur la période de 17 à 72 mois. Un total de 2045 dyades mère-enfant ont été incluses dans une analyse de courbe de croissance latente. Nous avons démontré que la coercition maternelle suit une évolution non linéaire durant cette période et atteint un sommet à 42 mois. Les facteurs de risque relatifs à l’enfant et à la mère, mesurés à 17 mois, permettent de prédire les niveaux de coercition à 42 mois. Finalement, les prédicteurs relatifs à l’enfant et l’efficacité maternelle prédisent l’évolution des pratiques parentales coercitives entre 17 et 72 mois. Ensuite, afin de définir une méthodologie solide pour étudier le traitement de la peur chez des jeunes, nous avons adapté une tâche développée par Lau et ses collaborateurs (2008), employant des visages féminins comme stimuli. Le sexe des participants et des visages employés comme stimuli pouvant potentiellement moduler le traitement de la peur (Kret & de Gelder, 2012; McClure, 2000), nous avons étudié leurs influences respectives sur les réponses électrodermales et subjectives de peur durant le conditionnement et l’extinction de la peur chez 117 jeunes. Nous avons démontré que les stimuli féminins suscitent des réponses davantage comparables entre les garçons et les filles que les stimuli masculins. De plus, nous avons observé un effet du « même sexe », caractérisé par un conditionnement différentiel uniquement face aux stimuli du même sexe que le participant. Finalement, nous avons exploré les différences individuelles et conjointes associées aux différents niveaux de pratiques parentales coercitives et d’anxiété en termes de réponses de peur et d’activité cérébrale, durant le conditionnement et l’extinction de la peur chez 84 jeunes. Nous avons démontré que la coercition est spécifiquement associée au fonctionnement du lobe temporal médian et aux interactions entre l’amygdale et l’insula, durant le conditionnement. Durant l’extinction, les niveaux d’anxiété étaient associés à des différences spécifiques d’activation du gyrus cingulaire antérieur (GCA) dorsal. Enfin, les pratiques parentales coercitives et l’anxiété interagissent et viennent moduler la connectivité fonctionnelle amygdale - GCA rostral, l’activation d’une sous-région du GCA dorsal et les réponses subjectives de peur. Ces résultats ajoutent une pièce au casse-tête des neurosciences développementales et fournissent des pistes intéressantes pour le développement d’interventions futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la période considérée, il a été effectué 4 cycles d'élevage larvaire complets et 5 cycles d'élevage post-larvaire matérialisant une importante évolution quantitative par rapport aux deux années antérieures du programme. Le protocole, décrit dans le rapport d'avancement des travaux 1988, n'a pas subi d'aménagements majeurs saufen matière de conditionnement des géniteurs. Malgré les progrès réalisés dans la production de larves "D" et en survie larvaire, il n'a pas été possible d'obtenir un nombre de post-larves significatif de Pecten jacobaeus pour cause de mortalité à la fixation. En revanche, un essai mené en parallèle à partir de pédivéligères de Pecten maximus, originaires d'Argenton, s'est soldé par l'obtention de près de 30.000 naissains dans des conditions de rendement satisfaisants. Enfin, le suivi mensuel de l'indice gonadique de la population naturelle de Pecten jacobaeus, associé à un examen histologique des gonades pendant une année, a permis de préciser pour la première fois en Méditerranée française le cycle de reproduction, ainsi que la période optimale de réponse à un stimuli de déclenchement de ponte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ces essais est une calibration de la houle du bassin de Brest et vérification du fonctionnement du batteur et de sa commande. Différentes houles régulières et irrégulières ont été réalisées afin de vérifier que les houles générées étaient en accord avec les houles que l'on souhaitait obtenir. Cela a également permis de vérifier le bon fonctionnement de la sonde Quasar 1 recettée peu de temps avant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’incertitude associée à une mesure a pour origine d’une part la variabilité environnementale et d’autre part l’ensemble du processus d’acquisition depuis le prélèvement jusqu’à la saisie de la donnée dans une base. L’estimation de l'ensemble de cette variabilité est un exercice complexe à réaliser dans le cadre d’un plan d’expérience. En revanche, les séries temporelles présentent la caractéristique d’intégrer toutes les variabilités et ainsi l’analyse de ces séries en terme de signal et bruit doit permettre de quantifier l’amplitude des incertitudes. Toutefois, les séries temporelles d’observation présentent un ensemble de caractéristiques les rendant difficiles à analyser. Les modèles linaires dynamiques constituent une approche adaptée à ces données particulières en faisant l’hypothèse de paramètres variables dans le temps. Ainsi, l’objet du présent travail consiste à estimer les variances liées au processus d’observation à l’aide de modèles linéaires dynamiques. Plus particulièrement, les mesures considérées sont la chlorophylle a et l’abondance phytoplanctonique aux lieux de surveillance REPHY « Arcachon-Bouée- 7 » et « Teychan bis ». Les résultats montrent que pour la chlorophylle a, la variabilité d’observation est responsable de l’ordre de 80 % de la variabilité totale. Pour l’abondance phytoplanctonique, elle est également de 80 % à « Arcachon-Bouée 7 » mais de l’ordre de 70 % à « Teychan bis ». Ainsi la part de « bruit » est liée au lieu et au paramètre considéré. Exprimée en pourcentage de la médiane de la chlorophylle a, la variance d’observation place les bornes de l’intervalle de confiance à 95 % des observations à des valeurs de l’ordre de -40 % et +120 % de la médiane, l’intervalle étant sous estimé car ne prenant pas en compte la variabilité structurelle. Pour l’abondance phytoplanctonique en log10 cell./L, les ordres de grandeur correspondant en pourcentage de la moyenne sont de ± 13.5 %. Pour les deux paramètres, ces valeurs sont compatibles avec l’expérience des experts. Ainsi, l’approche mise en oeuvre s’est avérée riche d’enseignements en matière d’incertitude de mesure et les nombreuses améliorations méthodologiques envisagées ouvrent des perspectives fécondes à tout point de vue.