641 resultados para Taille d’échantillon
Resumo:
Visant à contribuer à la pérennité de la musique d’art instrumentale, cette thèse aborde plusieurs sujets la concernant, autant sur les plans théorique et esthétique que pratique et compositionnel. Les deux principaux contextes observés sont ceux de la modernité et de l’économie de marché. Le premier, par le triomphe de la raison technicienne, aurait conduit à l’autonomie de l’art désormais confronté aux risques de l’autoréférence. Le deuxième, par la pression exercée sur le compositeur à la base de la chaîne création-production-diffusion, compromettrait cette autonomie qu’elle avait pourtant contribuée à rendre possible. Or, l’autonomie de l’art, en tant que conquête sur les plans esthétique, social, politique, économique et intellectuel, représente un enjeu de taille, puisque d’éventuelles compromissions envers des impératifs extérieurs impliquent un recul sur tous ces plans. Pour répondre à cette problématique, la thèse explore des pistes de réflexions et d’opérations pour réaffirmer – en le revendiquant – ce que la musique d’art possède en propre et qui mérite encore d’être entendu, militant ainsi pour la survie de ce qui la rend possible. Plus précisément, la dialectique du son et de la musique que je développe ici me permet, dans un premier temps, d’aborder les médiations successives conduisant des ondes mécaniques à se structurer dans notre conscience jusqu’à se transmettre à nous sous forme de patrimoine; puis, dans un deuxième temps, de décrire ma propre intention de communication par la musique en analysant deux œuvres de ma composition : Musique d’art pour quintette à cordes et Musique d’art pour orchestre de chambre II (partie 1.). Musique d’art pour quintette à cordes est une œuvre-concert de soixante-cinq minutes pour quatuor à cordes et contrebasse, spatialisation, traitement et mise en espace des musiciens. Il s’agit d’un projet de recherche-création de mon initiative que j’ai aussi mené à titre de producteur. Musique d’art pour orchestre de chambre II (partie 1.) est une œuvre de commande de quatorze minutes. Le retour critique portant sur l’ensemble des composantes caractéristiques du média ouvre la voie à une corrélation plus étroite entre son contenu et sa forme privilégiée de présentation, le concert. Cette corrélation peut amener le public à désirer visiter les œuvres et apprécier leur signification, préservant la musique d’art comme mode spécifique de connaissance du monde.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
Poverty is a multi-dimensional socio-economic problem in most sub-Saharan African countries. The purpose of this study is to analyse the relationship between household size and poverty in low-income communities. The Northern Free State region in South Africa was selected as the study region. A sample of approximately 2 900 households was randomly selected within 12 poor communities in the region. A poverty line was calculated and 74% of all households were found to live below the poverty line. The Pearson’s chi-square test indicated a positive relationship between household size and poverty in eleven of the twelve low-income communities. Households below the poverty line presented larger households than those households above the poverty line. This finding is in contradiction with some findings in other African countries due to the fact that South Africa has higher levels of modernisation with less access to land for subsistence farming. Effective provision of basic needs, community facilities and access to assets such as land could assist poor households with better quality of life. Poor households also need to be granted access to economic opportunities, while also receiving adult education regarding financial management and reproductive health.
Resumo:
Ce mémoire visait à déterminer les pratiques et les facteurs favorables au succès des réintroductions du carex faux-lupulina (Carex lupuliformis), une espèce vivace menacée poussant dans divers types de milieux humides ouverts du nord-est de l’Amérique du Nord. Pour répondre à cet objectif, des expériences de germination en serres ont été réalisées, et la survie, la vigueur et le microhabitat de chaque plant de carex faux-lupulina connu au Québec (sauvage ou réintroduit) ont été mesurés. Nos résultats montrent que le carex faux-lupulina est une espèce facile à propager ex situ. Une stratification froide (4°C) des semences dans du sable humide pendant un mois induit des taux de germination élevés. Nos résultats montrent également que des pucerons exotiques, ainsi qu’une transplantation dans des habitats inadaptés aux besoins de l’espèce en termes d’humidité du sol et de lumière disponible, ont causé la mort prématurée d’un grand nombre de transplants. Notre programme de réintroduction a permis d’établir une nouvelle population de l’espèce au Québec, et a potentiellement permis de sextupler la taille des populations de la province. Globalement, cette étude a permis de mieux comprendre l’écologie du carex faux-lupulina, et ainsi de faciliter la restauration de ses populations.
Resumo:
Le syndrome de Leigh version canadienne-française (LSFC) est une maladie autosomale récessive causée par une mutation du gène LRPPRC, encodant une protéine du même nom. LRPPRC est impliquée dans la traduction des gènes mitochondriaux qui encodent certains complexes de la chaine respiratoire. Les répercussions biochimiques incluent un déficit tissu spécifique de la cytochrome c oxydase (COX), principalement dans le foie et le cerveau, et la survenue de crises d’acidose fatales chez 80 % des enfants atteints avant l’âge de 3-4 ans. L’identification d’options thérapeutiques demeure encore un défi de taille et ceci est en partie relié au manque de connaissances des fonctions biologiques de LRPPRC et des mécanismes impliqués dans la pathogenèse du LSFC, au niveau des dysfonctions mitochondriales résultantes. Afin d’étudier ces mécanismes, le consortium de l’acidose lactique, dont fait partie notre laboratoire, a récemment développé un modèle murin portant une ablation de LRPPRC spécifique au foie (souris H-Lrpprc-/-). L’objectif principal est de déterminer si ce modèle reproduit le phénotype pathologique observé dans les cultures de fibroblastes humains issus de biopsies de peau de patients LSFC. Dans le cadre des travaux de ce mémoire, nous avons amorcé la caractérisation de ce nouveau modèle, en examinant le phénotype général, l’histopathologie hépatique et les fonctions mitochondriales, et en nous focalisant principalement sur les fonctions respiratoires et la capacité à oxyder divers types de substrats. Nous avons observé un retard de croissance, une hépatomégalie ainsi que plusieurs anomalies histologiques du foie chez la souris HLrpprc-/-. De plus, l’ablation de LRPPRC induit un déficit du complexe IV, mais aussi de l’ATP synthase, et affecte l’oxydation des acides gras à longues chaines. À la lumière de ces résultats, nous croyons que le modèle murin H-Lrpprc-/- contribuera à l’avancement des connaissances générales sur LRPPRC, nous permettant de mieux comprendre l’influence de la protéine sur les fonctions mitochondriales.
Resumo:
Les communes suisses sont largement souveraines pour financer leurs activités. Leurs ressources proviennent avant tout de l'impôt sur le revenu et de l'impôt foncier prélevés auprès des ménages et des entreprises. Une crise, comme celle de 2008, qui touche la sphère financière et l'économie en général risque d'avoir des répercussions directes sur les budgets locaux. Dans le présent article, nous examinons la manière dont les communes perçoivent ce risque et y réagissent. Dans une enquête menée à l'échelle nationale fin 2009 dans les 2596 communes suisses, nous avons demandé aux secrétaires municipaux quelles mesures avaient été prises face aux pertes fiscales attendues et à la hausse possible des dépenses sociales suite à la crise de 2008. Des mesures keynésiennes ont-elles été prises, en augmentant les dépenses et en acceptant des déficits plus importants, ou y a-t-il eu tentative de limiter les déficits par des mesures d'austérité, notamment en restreignant les investissements prévus ? Nos résultats indiquent que quelques communes seulement (essentiellement les plus grandes) s'attendaient à être durement touchées par la crise. On n'observe cependant pas de tendance systématique et conforme à la théorie. Certes des mesures d'austérité ont été mises en place ou un déficit budgétaire a été provoqué, mais bon nombre de communes ont appliqué simultanément des mesures relevant des deux théories. L'impact perçu de la crise au niveau local et l'appartenance de la commune à la partie francophone du pays sont les principaux facteurs expliquant la réaction des communes et les raisons de cette réaction. La taille de la commune joue aussi un rôle. Mais l'influence du parti social-démocrate est négligeable. Le type de mesures que les communes sont susceptibles de prendre est plus difficile à expliquer. Cependant, plus une commune se sent touchée, plus elle s'orientera vers des mesures d'austérité.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
The landing ban of Raja undulata has raised misunderstanding for French fishermen, particularly for those fishing in the Norman‐Breton gulf (Southeast of ICES Division VIIe) where this species is very abundant. In this context, the RAIMOUEST project was launched as a professional and scientist partnership in order to enhance fisheries data on the main ray species caught in the Norman-Breton Gulf (Raja undulata, Raja brachyura, Raja clavata, Raja montagui and Raja microocellata). The French ray fisheries fleet was identified and a sample of fishermen involved in rays fishing was interviewed. Landings and effort data (logbooks), auctions sales and sampling at sea aboard professional fishing vessels were analysed. This working document presents the current results of this study. The French fleet concerned by ray fishing in the Normand-Breton Gulf in 2012 was composed of 289 vessels, mainly coastal trawlers/dredgers and small length size netters and longliners. R. undulata is the main ray species in this area. This species seems to form a local stock in the Normand-Breton Gulf with some continuity in the Eastern English Channel and the Western part of the Western English Channel. Three ways of analysis were used to provide an indicative level of R. undulata stock: French landings before 2009 were estimated at least at 300 tons in the Western English Channel (VIIe) and 160 tons in the Normand-Breton Gulf; sales at auctions of the Basse-Normandie fleet before 2009 were estimated at 235 tons in the western English Channel and 35 tons in the eastern English Channel (VIId); discards by the French bottom trawl fleet in ICES Division VIIe in 2012 and 2013 were estimated at 750 tons. Information on the spatial distribution of the other ray species in the English Channel was also provided. The coastal localisation of nursery for R. undulata and R. clavata was highlighted.
Resumo:
La population d’anchois du Golfe de Gascogne présente une grande variabilité dans le recrutement de jeunes individus à la population, si bien que le stock a quasiment disparu en 2005. Bien qu’aujourd’hui la population soit revenue à un niveau démographique satisfaisant, les mécanismes qui interviennent dans le succès du recrutement sont toujours mal connus. Le but de cette étude est d’estimer plus précisément un intervalle de temps, à l’intérieur de la période de ponte de l’anchois européen, dans lequel sont nés des anchois d’un an, donc recrutés à la population. La détermination d’âge annuel des poissons par la lecture des otolithes est commune, mais le rétro-calcul de la date d’éclosion d’individus adulte par lecture des stries journalières n’a, à ce jour, fait l’objet d’aucune publication. Nous mettons donc en évidence, sur des otolithes d’anchois échantillonnés lors de PELGAS 2004, la faisabilité d’une telle méthode. Les résultats obtenus indiquent, pour l’année concernée, un recrutement qui a lieu sur une courte période de temps (un mois), et en dehors du pic de ponte. De plus, la taille des individus d’un an, très variable, ne dépendrait pas de leur nombre de jours de croissance. Ces premiers résultats, obtenus par une méthode inédite, posent les bases d’une réflexion sur les premiers stades de vie de l’anchois et les facteurs qui régissent sa croissance et sa probabilité de recrutement à la population.
Resumo:
La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.
Resumo:
Les modèles d'optimalité postulent que les animaux en quête de ressources utilisent le taux de gain de valeur adaptative pour optimiser plusieurs comportements tels que la répartition du temps lors de l’exploitation d‘un agrégat et l'investissement en progénitures. Bien que la durée de plusieurs comportements doit être régulée, peu d’évidences de la perception du temps sont actuellement disponibles pour les insectes et aucune pour les guêpes parasitoïdes, et ce malgré leur importance en tant que modèles écologiques. De plus, puisque les guêpes parasitoïdes sont poïkilothermes, cette capacité pourrait être affectée par la température. Nous avons supposé que les guêpes parasitoïdes auraient la capacité de percevoir le temps, à la fois de façon prospective (mesure du temps écoulé) et rétrospective (durée d'un événement passé), afin d'optimiser les décisions liées à l'exploitation d’agrégats d’hôtes et à la reproduction. Nous avons également émis l'hypothèse que la température aurait une incidence sur la perception du temps des guêpes parasitoïdes. Pour la mesure prospective du temps, nous avons utilisé la capacité d’apprentissage associatif de Microplitis croceipes (Hymenoptera: Braconidae). Les guêpes ont été entraînées à associer une odeur à la durée d'un intervalle entre des hôtes. Après leur entraînement, elles ont été testées dans un tunnel de vol avec un choix d’odeurs. Les guêpes ont choisi majoritairement l'odeur associée à l'intervalle de temps auquel elles étaient testées. Nous avons également investigué le rôle de la dépense énergétique sur la mesure du temps. Suite à une restriction de mouvement des guêpes pendant l'intervalle de temps entre les hôtes, elles choisissaient aléatoirement dans le tunnel de vol. L'absence de dépense énergétique les aurait rendues incapables de mesurer le temps. La dépense d'énergie est donc un substitut essentiel pour mesurer le temps. Pour la mesure rétrospective du temps, nous avons utilisé le processus d'évaluation de l'hôte de Trichogramma euproctidis (Hymenoptera: Trichogrammatidae). Certains trichogrammes utilisent la durée du transit initial sur l'œuf hôte afin d’en évaluer la taille et d’ajuster le nombre d’œufs à y pondre. Nous avons augmenté artificiellement la durée de transit initiale de T. euproctidis en suspendant l'œuf hôte pour le faire paraître plus gros qu'un œuf de taille similaire. Une augmentation de la durée de transit initiale a augmenté la taille de la ponte. Ceci démontre la capacité de T. euproctidis de mesurer la durée du transit initial, et donc d’une mesure du temps rétrospective. Pour déterminer si la température modifie la mesure du temps dans les espèces poïkilothermes, nous avons utilisé le comportement d’exploitation d’agrégats d’hôtes de T. euproctidis. Les modèles d’optimalités prédisent que les guêpes devraient rester plus longtemps et quitter à un faible taux de gain de valeur adaptative suite à un déplacement de longue durée plutôt que pour un déplacement de courte durée. Nous avons testé l'impact d'un déplacement de 24 h à différentes températures sur l'exploitation d’agrégats d’hôtes. Un déplacement à température chaude augmente le temps de résidence dans l’agrégat et diminue le taux de gain de valeur adaptative au moment de quitter ; ces comportements sont associés à un trajet de longue durée. L'inverse a été observé lors d’un déplacement à une température froide. Les températures chaude et froide ont modulé la mesure du temps en accélérant ou ralentissant l'horloge biologique, faisant paraître le déplacement respectivement plus long ou plus court qu’il ne l’était réellement. Ces résultats démontrent clairement que les guêpes parasitoïdes ont la capacité de mesurer le temps, autant rétrospectivement que prospectivement. Des preuves directes de leur capacité sont maintenant disponibles pour au moins deux espèces de guêpes parasitoïdes, une composante essentielle des modèles d'optimalité. Le rôle de la dépense énergétique dans la mesure du temps a aussi été démontré. Nos résultats fournissent également la preuve de l'impact de la température sur la perception du temps chez les insectes. L'utilisation de la dépense énergétique en tant que proxy pour mesurer le temps pourrait expliquer une partie de sa thermosensibilité, puisque les guêpes parasitoïdes sont poïkilothermes. Cette mesure du temps sensible à la température pourrait affecter des stratégies de lutte biologique. Sur le terrain, au début de la journée, la température de l'air sera similaire à la température de l'air autour des plantes infestées par des parasites, alors qu'elle sera plus chaude pendant la journée. En lutte biologique augmentative, les guêpes parasitoïdes libérées resteraient plus longtemps dans les agrégats d’hôtes que celles relâchées en début de journée.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Ces essais se déroulent dans le cadre de la thèse du Dr LODDE sur l’impact d’une plongée sur le corps humain. Suite à un protocole bien défini, des médecins feront divers analyses sur les plongeurs avant et après immersion. 16 plongeurs ont été reçus sur 2 jours : 8 palanquées de 2. Chaque plongeur passe par des examens médicaux avant plongées : EFR, laser doppler, tension, prise de sang. Après une plongée de 40 minutes à 20m, le plongeur recommence les examens. Les médecins seront ainsi en mesure, sur un échantillon de plongeurs désignés (age, sexe, poids, taille différents), de déterminer l’influence d’une immersion sur le corps humain.
Resumo:
L'usage de la ligne à main mécanisée (moulinet électrique) s'est développé à La Réunion au cours des années 2000. Ce métier s’est développé à la suite d’une campagne de prospection des ressources halieutiques profondes (200-700m), menée conjointement par le CRPMEM et l’Ifremer en 2000. L’objectif de cette campagne par pêche au moulinet électrique visait à identifier de nouvelles ressources démersales à des fins de diversification pour la petite pêche artisanale côtière professionnelle réunionnaise. Ainsi, les premiers résultats de cette étude avaient mis en évidence l'existence de nouvelles espèces et des stocks encore peu exploités à l’époque. Leur exploitation par la pêche professionnelle mais aussi par la pêche plaisancière s’est dès lors développée rapidement, sans aucun contrôle. En l’absence de cadre juridique et de mesures de gestion appropriés, la baisse rapide des rendements et les conflits pour l’accès à ces ressources profondes limitées et réputées sensibles à l’exploitation avaient motivé un précédent projet d'étude pour caractériser l’état de ces ressources (ANCRE-DMX, nommé DMX1, Ifremer 2011). Ce premier diagnostic réalisé à peine 10 ans après le début de l’exploitation des principales espèces avait mis en évidence des premiers signes d’une exploitation non soutenable des ressources dans l'ouest et le nord de La Réunion. Il avait été alors préconisé de lever des lacunes importantes concernant la biologie et l’écologie des espèces, d’évaluer l’état de ces stocks et enfin, de définir des indicateurs biologiques et halieutiques permettant de suivre l’évolution de ces différents stocks. En effet, les stocks de poissons démersaux profonds sont connus pour leur vulnérabilité (croissance lente, maturité sexuelle tardive, recrutement aléatoire…), et ce d’autant plus que leurs habitats sont particulièrement restreints à La Réunion. Le présent projet DMX2 a donc eu pour principal objectif d’établir, à partir d’une approche « indicateur », les bases des connaissances halieutiques, biologiques et écologiques manquantes sur les 6 principales espèces ciblées par la pêcherie à la ligne mécanisée. Le plan d’échantillonnage mis en place a couvert des profondeurs comprises entre 80 et 700 mètres, intégrant pour la première fois les zones de transition plus côtières. La période d’échantillonnage s’est déroulée sur un cycle annuel complet, soit d’avril 2014 à mai 2015, avec le concours de 10 pêcheurs professionnels répartis tout autour de l’île. Ainsi, 143 marées ont permis d’échantillonner 3984 individus et plus de 60 espèces différentes. Pour les principales espèces retenues, le suivi des captures en mer et les prélèvements biologiques réalisés ont permis d’appréhender leur rendement, leur structure démographique, leurs relations biométriques, l’étude de leur croissance, leur cycle de reproduction, leur taille de première maturité, la composition relative de leur alimentation ainsi que la variabilité de leur condition corporelle selon les saisons et en fonction des secteurs géographiques de l’île. Pour certaines espèces, les paramètres biologiques et écologiques obtenus n’avaient jamais été étudiés à ce jour. A partir des indicateurs populationnels et bio-écologiques retenus dans le projet, il a été possible d’évaluer l’état de santé des principaux stocks exploités et de les confronter à la situation et à l’évolution de la pêcherie ciblant ces espèces. Sur la base d’une approche de précaution, les diagnostics rendus sont variables selon l’état de santé de chacun des stocks et de leur sensibilité à l’exploitation. L’approche « indicateur » développée dans le cadre de ce projet a été appliquée aux données historiques disponibles. Ces indicateurs seront désormais proposés dans le cadre des suivis qui devront être mis en place dans la définition d’un plan de gestion des ressources démersales profondes à La Réunion. La définition du plan de gestion devra être discutée et validée auprès des différents usagers pêcheurs ainsi que des gestionnaires scientifiques, professionnels et administratifs.