932 resultados para ExternaI Time-varying Reference Consumption Level
Resumo:
A control law was designed for a satellite launcher ( rocket ) vehicle using eigenstructure assignment in order that the vehicle tracks a reference attitude and also to decouple the yaw response from roll and pitch manoeuvres and to decouple the pitch response from roll and yaw manoeuvres. The design was based on a complete linear coupled model obtained from the complete vehicle non linear model by linearization at each trajectory point. After all, the design was assessed with the vehicle time varying non-linear model showing a good performance and robustness. The used design method is explained and a case study for the Brazilian satellite launcher ( VLS Rocket ) is reported.
Resumo:
Food industry in Finland has a long tradition and the new trends and the future of Finnish food industry is going towards functional and healthy food for the consumers in and outside Finland. Small companies operating in this industry face many difficulties in trying to compete and expand to new markets, that is why these companies are the key of innovation and they have done many breakthroughs in the food industry as well. It is therefore important to understand the internationalization process these companies follow and entry strategies they use, and moreover how they use their limited resources in order to be successful in international markets. This thesis via a case study approach deals with the issue of internationalization of SMEs and Finnish food industry. This study supports earlier theories of internationalization, primarily the Uppsala model and acknowledges internationalization as an incremental process. Meaning that psychic distance is indeed the major barrier of internationalization, and acquisition of international knowledge requires significant amount of time which influences the level of resource-commitment in foreign markets. It follows that due to the risks involved in foreign markets, the least resource-intensive modes of market entry such as direct and indirect exports are generally preferred at the start of internationalization process. As of what explains the non-conventional rapid internationalization process, we conclude that in an internationalized industry and country with established trade flows like Finland, the context in which firms operate may be less significant than the varying level of entrepreneurial skills and confidence present therein.
Resumo:
A trade-off between return and risk plays a central role in financial economics. The intertemporal capital asset pricing model (ICAPM) proposed by Merton (1973) provides a neoclassical theory for expected returns on risky assets. The model assumes that risk-averse investors (seeking to maximize their expected utility of lifetime consumption) demand compensation for bearing systematic market risk and the risk of unfavorable shifts in the investment opportunity set. Although the ICAPM postulates a positive relation between the conditional expected market return and its conditional variance, the empirical evidence on the sign of the risk-return trade-off is conflicting. In contrast, autocorrelation in stock returns is one of the most consistent and robust findings in empirical finance. While autocorrelation is often interpreted as a violation of market efficiency, it can also reflect factors such as market microstructure or time-varying risk premia. This doctoral thesis investigates a relation between the mixed risk-return trade-off results and autocorrelation in stock returns. The results suggest that, in the case of the US stock market, the relative contribution of the risk-return trade-off and autocorrelation in explaining the aggregate return fluctuates with volatility. This effect is then shown to be even more pronounced in the case of emerging stock markets. During high-volatility periods, expected returns can be described using rational (intertemporal) investors acting to maximize their expected utility. During lowvolatility periods, market-wide persistence in returns increases, leading to a failure of traditional equilibrium-model descriptions for expected returns. Consistent with this finding, traditional models yield conflicting evidence concerning the sign of the risk-return trade-off. The changing relevance of the risk-return trade-off and autocorrelation can be explained by heterogeneous agents or, more generally, by the inadequacy of the neoclassical view on asset pricing with unboundedly rational investors and perfect market efficiency. In the latter case, the empirical results imply that the neoclassical view is valid only under certain market conditions. This offers an economic explanation as to why it has been so difficult to detect a positive tradeoff between the conditional mean and variance of the aggregate stock return. The results highlight the importance, especially in the case of emerging stock markets, of noting both the risk-return trade-off and autocorrelation in applications that require estimates for expected returns.
Resumo:
The objective of this work was to study the effects of partial removal of wood hemicelluloses on the properties of kraft pulp.The work was conducted by extracting hemicelluloses (1) by a softwood chip pretreatment process prior to kraft pulping, (2) by alkaline extraction from bleached birch kraft pulp, and (3) by enzymatic treatment, xylanase treatment in particular, of bleached birch kraft pulp. The qualitative and quantitative changes in fibers and paper properties were evaluated. In addition, the applicability of the extraction concepts and hemicellulose-extracted birch kraft pulp as a raw material in papermaking was evaluated in a pilot-scale papermaking environment. The results showed that each examined hemicellulose extraction method has its characteristic effects on fiber properties, seen as differences in both the physical and chemical nature of the fibers. A prehydrolysis process prior to the kraft pulping process offered reductions in cooking time, bleaching chemical consumption and produced fibers with low hemicellulose content that are more susceptible to mechanically induced damages and dislocations. Softwood chip pretreatment for hemicellulose recovery prior to cooking, whether acidic or alkaline, had an impact on the physical properties of the non-refined and refined pulp. In addition, all the pretreated pulps exhibited slower beating response than the unhydrolyzed reference pulp. Both alkaline extraction and enzymatic (xylanase) treatment of bleached birch kraft pulp fibers indicated very selective hemicellulose removal, particularly xylan removal. Furthermore, these two hemicellulose-extracted birch kraft pulps were utilized in a pilot-scale papermaking environment in order to evaluate the upscalability of the extraction concepts. Investigations made using pilot paper machine trials revealed that some amount of alkalineextracted birch kraft pulp, with a 24.9% reduction in the total amount of xylan, could be used in the papermaking stock as a mixture with non-extracted pulp when producing 75 g/m2 paper. For xylanase-treated fibers there were no reductions in the mechanical properties of the 180 g/m2 paper produced compared to paper made from the control pulp, although there was a 14.2% reduction in the total amount of xylan in the xylanase-treated pulp compared to the control birch kraft pulp. This work emphasized the importance of the hemicellulose extraction method in providing new solutions to create functional fibers and in providing a valuable hemicellulose co-product stream. The hemicellulose removal concept therefore plays an important role in the integrated forest biorefinery scenario, where the target is to the co-production of hemicellulose-extracted pulp and hemicellulose-based chemicals or fuels.
Resumo:
Laser additive manufacturing (LAM), known also as 3D printing, is a powder bed fusion (PBF) type of additive manufacturing (AM) technology used to manufacture metal parts layer by layer by assist of laser beam. The development of the technology from building just prototype parts to functional parts is due to design flexibility. And also possibility to manufacture tailored and optimised components in terms of performance and strength to weight ratio of final parts. The study of energy and raw material consumption in LAM is essential as it might facilitate the adoption and usage of the technique in manufacturing industries. The objective this thesis was find the impact of LAM on environmental and economic aspects and to conduct life cycle inventory of CNC machining and LAM in terms of energy and raw material consumption at production phases. Literature overview in this thesis include sustainability issues in manufacturing industries with focus on environmental and economic aspects. Also life cycle assessment and its applicability in manufacturing industry were studied. UPLCI-CO2PE! Initiative was identified as mostly applied exiting methodology to conduct LCI analysis in discrete manufacturing process like LAM. Many of the reviewed literature had focused to PBF of polymeric material and only few had considered metallic materials. The studies that had included metallic materials had only measured input and output energy or materials of the process and compared to different AM systems without comparing to any competitive process. Neither did any include effect of process variation when building metallic parts with LAM. Experimental testing were carried out to make dissimilar samples with CNC machining and LAM in this thesis. Test samples were designed to include part complexity and weight reductions. PUMA 2500Y lathe machine was used in the CNC machining whereas a modified research machine representing EOSINT M-series was used for the LAM. The raw material used for making the test pieces were stainless steel 316L bar (CNC machined parts) and stainless steel 316L powder (LAM built parts). An analysis of power, time, and the energy consumed in each of the manufacturing processes on production phase showed that LAM utilises more energy than CNC machining. The high energy consumption was as result of duration of production. Energy consumption profiles in CNC machining showed fluctuations with high and low power ranges. LAM energy usage within specific mode (standby, heating, process, sawing) remained relatively constant through the production. CNC machining was limited in terms of manufacturing freedom as it was not possible to manufacture all the designed sample by machining. And the one which was possible was aided with large amount of material removed as waste. Planning phase in LAM was shorter than in CNC machining as the latter required many preparation steps. Specific energy consumption (SEC) were estimated in LAM based on the practical results and assumed platform utilisation. The estimated platform utilisation showed SEC could reduce when more parts were placed in one build than it was in with the empirical results in this thesis (six parts).
Resumo:
Several methods have been described to measure intraocular pressure (IOP) in clinical and research situations. However, the measurement of time varying IOP with high accuracy, mainly in situations that alter corneal properties, has not been reported until now. The present report describes a computerized system capable of recording the transitory variability of IOP, which is sufficiently sensitive to reliably measure ocular pulse peak-to-peak values. We also describe its characteristics and discuss its applicability to research and clinical studies. The device consists of a pressure transducer, a signal conditioning unit and an analog-to-digital converter coupled to a video acquisition board. A modified Cairns trabeculectomy was performed in 9 Oryctolagus cuniculus rabbits to obtain changes in IOP decay parameters and to evaluate the utility and sensitivity of the recording system. The device was effective for the study of kinetic parameters of IOP, such as decay pattern and ocular pulse waves due to cardiac and respiratory cycle rhythm. In addition, there was a significant increase of IOP versus time curve derivative when pre- and post-trabeculectomy recordings were compared. The present procedure excludes corneal thickness and error related to individual operator ability. Clinical complications due to saline infusion and pressure overload were not observed during biomicroscopic evaluation. Among the disadvantages of the procedure are the requirement of anesthesia and the use in acute recordings rather than chronic protocols. Finally, the method described may provide a reliable alternative for the study of ocular pressure dynamic alterations in man and may facilitate the investigation of the pathogenesis of glaucoma.
Resumo:
Fish consumption preferences are affected by individuals’ socioeconomic characteristics. The aims of the present paper were (i) to obtain information on fish consumption level and frequency; (ii) to investigate the associations between the socioeconomic characteristics of consumers and their preferences; and (iii) to examine the influence of determinants on fish consumption. Data were gathered through a questionnaire completed by a total of 127 randomly selected individuals from different socioeconomic backgrounds from the Antakya, Turkey. The average consumption was found to be 2.98 kg/person/year for fish. Anchovies, gilt-head sea bream, and sea bass were reported as the most consumed three species, respectively. Significant differences in fish consumption were found among age groups, gender groups, and education groups, as well as between marital statuses. A majority of the consumers eat fish once a month throughout the year or only during the winter months. Fish consumption level and frequency were significantly positively correlated with education (p<0.01), income (p<0.05) and total meat consumption (p<0.01). The stepwise multiple regression model explained 41.7% (p<0.01) of the total variance for fish consumption. The amount and frequency of the consumption in the region, which is very far below the world and Turkey average especially for lower socioeconomic groups and for less-consumed fish species, can be increased by certain policies, such as training, advertising and different marketing strategies. Moreover, consumption should be distributed equally throughout the year instead of consuming only in certain seasons.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Introduction Chaque année, 289 000 femmes décèdent des complications reliées à la grossesse et à l’accouchement, et 2.9 millions de nouveau-nés décèdent avant d’atteindre 28 jours de vie. La quasi-totalité (99%) des décès maternels et néonataux ont cours dans les pays à revenu faible et intermédiaire (PRFI). L’utilisation des services obstétricaux essentiels, incluant l’assistance qualifiée à l’accouchement (AA) et les services postnataux, contribue largement à la réduction de la morbidité et de la mortalité maternelle et néonatale. Il est donc essentiel d’évaluer les déterminants et les inégalités de couverture de ces services, en vue d’informer l’élaboration de politiques et de programmes de santé dans les PRFI. Objectifs 1. Étudier systématiquement les déterminants et inégalités socioéconomiques, géographiques et démographiques dans l’utilisation des services de santé postnataux dans les PRFI. 2. Évaluer l’effet de la politique de subvention des frais aux usagers introduite au Burkina Faso en 2007 sur les taux d’utilisation de l’assistance qualifiée à l’accouchement, en fonction du statut socioéconomique (SSE). Méthodes 1. Nous avons réalisé une revue systématique sur l’utilisation des services postnataux dans les PRFI, en fonction des déterminants socioéconomiques, géographiques et démographiques. Notre étude incluait une méta-analyse de l’utilisation des services selon les quintiles de SSE et le milieu de vie (urbain vs. rural). 2. Nous avons utilisé un devis quasi-expérimental. Les sources de données consistaient en deux sondages représentatifs (n=1408 et n=1403), conduits respectivement en 2008 et 2010 auprès de femmes des districts sanitaires de Houndé et de Ziniaré au Burkina Faso, en plus d’une enquête sur la qualité structurelle des soins offerts dans les centres de santé primaire. Nous avons utilisé des modèles de régression de Poisson, multi-niveaux et segmentés, afin d’évaluer l’effet de la politique de subvention sur les taux d’AA. Nous avons estimé des ratios et différences de taux d’incidence ajustés, en fonction du SSE et du temps écoulé depuis l’introduction de la subvention. Résultats 1. Les estimés de ratio de cotes (RC) agrégés (IC 95%) pour les femmes de SSE élevé (5e quintile ou Q5), Q4, Q3 et Q2 (référence : quintile le plus pauvre, Q1) étaient respectivement : 2.27 (1.75 – 2.93); 1.60 (1.30-1.98); 1.32 (1.12-1.55); et 1.14 (0.96-1.34). La méta-analyse a aussi démontré un gradient d’utilisation des services postnataux entre les femmes urbaines et rurales : RC (IC 95%) = 1.36 (1.01-1.81). L’évaluation narrative a par ailleurs identifié une différence dans la couverture de services selon le niveau d’éducation. 2. Pour les femmes de faible SSE, le taux d’AA était 24% plus élevé (IC 95% : 4-46%) immédiatement après l’introduction de la subvention, en comparaison au taux attendu en l’absence de ladite subvention. L’ampleur de l’effet a diminué dans le temps, correspondant à des estimés (IC 95%) de 22% (3-45%) à 6 mois, 20% (1-43%) à 12 mois, et 17% (-4-42%) à 24 mois après l’introduction de la subvention. La force d’association variait selon les strates de SSE, l’effet le plus prononcé étant observé au sein du SSE le plus faible. Conclusions 1. L’utilisation des services postnataux demeure inéquitable selon le SSE et l’accessibilité géographique aux formations sanitaires dans les PRFI. 2. Notre étude suggère que l’introduction de la subvention des frais aux usagers au Burkina Faso résulte en une augmentation soutenue dans le taux d’assistance qualifiée à l’accouchement, particulièrement chez les femmes de faible SSE. Cette évidence scientifique devrait alimenter l’élaboration de programmes de santé materno-infantile, en plus de guider la planification de politiques et le renforcement des systèmes de santé des PRFI.
Resumo:
In Wireless Sensor Networks (WSN), neglecting the effects of varying channel quality can lead to an unnecessary wastage of precious battery resources and in turn can result in the rapid depletion of sensor energy and the partitioning of the network. Fairness is a critical issue when accessing a shared wireless channel and fair scheduling must be employed to provide the proper flow of information in a WSN. In this paper, we develop a channel adaptive MAC protocol with a traffic-aware dynamic power management algorithm for efficient packet scheduling and queuing in a sensor network, with time varying characteristics of the wireless channel also taken into consideration. The proposed protocol calculates a combined weight value based on the channel state and link quality. Then transmission is allowed only for those nodes with weights greater than a minimum quality threshold and nodes attempting to access the wireless medium with a low weight will be allowed to transmit only when their weight becomes high. This results in many poor quality nodes being deprived of transmission for a considerable amount of time. To avoid the buffer overflow and to achieve fairness for the poor quality nodes, we design a Load prediction algorithm. We also design a traffic aware dynamic power management scheme to minimize the energy consumption by continuously turning off the radio interface of all the unnecessary nodes that are not included in the routing path. By Simulation results, we show that our proposed protocol achieves a higher throughput and fairness besides reducing the delay
Resumo:
Time series regression models are especially suitable in epidemiology for evaluating short-term effects of time-varying exposures on health. The problem is that potential for confounding in time series regression is very high. Thus, it is important that trend and seasonality are properly accounted for. Our paper reviews the statistical models commonly used in time-series regression methods, specially allowing for serial correlation, make them potentially useful for selected epidemiological purposes. In particular, we discuss the use of time-series regression for counts using a wide range Generalised Linear Models as well as Generalised Additive Models. In addition, recently critical points in using statistical software for GAM were stressed, and reanalyses of time series data on air pollution and health were performed in order to update already published. Applications are offered through an example on the relationship between asthma emergency admissions and photochemical air pollutants
Resumo:
La estimación e interpretación de la estructura a plazo de la tasas de interés es de gran relevancia porque permite realizar pronósticos, es fundamental para la toma de decisiones de política monetaria y fiscal, es esencial en la administración de riesgos y es insumo para la valoración de diferentes activos financieros. Por estas razones, es necesario entender que puede provocar un movimiento en la estructura a plazo. En este trabajo se estiman un modelo afín exponencial de tres factores aplicado a los rendimientos de los títulos en pesos de deuda pública colombianos. Los factores estimados son la tasa corta, la media de largo plazo de la tasa corta y la volatilidad de la tasa corta. La estimación se realiza para el periodo enero 2010 a mayo de 2015 y se realiza un análisis de correlaciones entre los tres factores. Posterior a esto, con los factores estimados se realiza una regresión para identificar la importancia que tiene cada uno de estos en el comportamiento de las tasas de los títulos de deuda pública colombiana para diferentes plazos al vencimiento. Finalmente, se estima la estructura a plazo de las tasas de interés para Colombia y se identifica la relación de los factores estimados con los encontrados por Litterman y Scheinkman [1991] correspondientes al nivel, pendiente y curvatura.
Resumo:
Este ensayo propone la línea de codicia para controlar el máximo nivel de consumo ética y económicamente aceptable, sobre el cual una redistribución parcial de los ingresos individuales puede eliminar la pobreza y restituir la economía hasta sus límites sustentables. El crecimiento económico actual permite superar varias veces las necesidades fundamentales de la población, sin embargo, la enorme inequidad social impide que al menos el 40% de la humanidad satisfaga sus necesidades humanas básicas, mientras que, el consumo suntuario absorbe una parte significativa del producto mundial y el tamaño de la economía ha superado la capacidad de reposición del planeta. La línea de codicia puede ser constante en un contexto histórico nacional definido, pero es variable a escalas temporales y regionales más amplias, su nivel es menor a mayor inequidad o pobreza, y a mayor actividad económica globalmente insustentable, finalmente, aumenta conforme la economía crece dentro de límites sustentables y equitativos.