867 resultados para Time-Consistent Policy


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Reablement, also known as restorative care, is one possible approach to home-care services for older adults at risk of functional decline. Unlike traditional home-care services, reablement is frequently time-limited (usually six to 12 weeks) and aims to maximise independence by offering an intensive multidisciplinary, person-centred and goal-directed intervention. Objectives:Objectives To assess the effects of time-limited home-care reablement services (up to 12 weeks) for maintaining and improving the functional independence of older adults (aged 65 years or more) when compared to usual home-care or wait-list control group. Search methods:We searched the following databases with no language restrictions during April to June 2015: the Cochrane Central Register of Controlled Trials (CENTRAL); MEDLINE (OvidSP); Embase (OvidSP); PsycINFO (OvidSP); ERIC; Sociological Abstracts; ProQuest Dissertations and Theses; CINAHL (EBSCOhost); SIGLE (OpenGrey); AgeLine and Social Care Online. We also searched the reference lists of relevant studies and reviews as well as contacting authors in the field.Selection criteria:We included randomised controlled trials (RCTs), cluster randomised or quasi-randomised trials of time-limited reablement services for older adults (aged 65 years or more) delivered in their home; and incorporated a usual home-care or wait-list control group. Data collection and analysis:Two authors independently assessed studies for inclusion, extracted data, assessed the risk of bias of individual studies and considered quality of the evidence using GRADE. We contacted study authors for additional information where needed.Main results:Two studies, comparing reablement with usual home-care services with 811 participants, met our eligibility criteria for inclusion; we also identified three potentially eligible studies, but findings were not yet available. One included study was conducted in Western Australia with 750 participants (mean age 82.29 years). The second study was conducted in Norway (61 participants; mean age 79 years). We are very uncertain as to the effects of reablement compared with usual care as the evidence was of very low quality for all of the outcomes reported. The main findings were as follows. Functional status: very low quality evidence suggested that reablement may be slightly more effective than usual care in improving function at nine to 12 months (lower scores reflect greater independence; standardised mean difference (SMD) -0.30; 95% confidence interval (CI) -0.53 to -0.06; 2 studies with 249 participants). Adverse events: reablement may make little or no difference to mortality at 12 months’ follow-up (RR 0.97; 95% CI 0.74 to 1.29; 2 studies with 811 participants) or rates of unplanned hospital admission at 24 months (RR 0.94; 95% CI 0.85 to 1.03; 1 study with 750 participants). The very low quality evidence also means we are uncertain whether reablement may influence quality of life (SMD -0.23; 95% CI -0.48 to 0.02; 2 trials with 249 participants) or living arrangements (RR 0.92, 95% CI 0.62 to 1.34; 1 study with 750 participants) at time points up to 12 months. People receiving reablement may be slightly less likely to have been approved for a higher level of personal care than people receiving usual care over the 24 months’ follow-up (RR 0.87; 95% CI 0.77 to 0.98; 1 trial, 750 participants). Similarly, although there may be a small reduction in total aggregated home and healthcare costs over the 24-month follow-up (reablement: AUD 19,888; usual care: AUD 22,757; 1 trial with 750 participants), we are uncertain about the size and importance of these effects as the results were based on very low quality evidence. Neither study reported user satisfaction with the serviceAuthors’ conclusions:There is considerable uncertainty regarding the effects of reablement as the evidence was of very low quality according to our GRADE ratings. Therefore, the effectiveness of reablement services cannot be supported or refuted until more robust evidence becomes available. There is an urgent need for high quality trials across different health and social care systems due to the increasingly high profile of reablement services in policy and practice in several countries. 

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Queueing theory is the mathematical study of ‘queue’ or ‘waiting lines’ where an item from inventory is provided to the customer on completion of service. A typical queueing system consists of a queue and a server. Customers arrive in the system from outside and join the queue in a certain way. The server picks up customers and serves them according to certain service discipline. Customers leave the system immediately after their service is completed. For queueing systems, queue length, waiting time and busy period are of primary interest to applications. The theory permits the derivation and calculation of several performance measures including the average waiting time in the queue or the system, mean queue length, traffic intensity, the expected number waiting or receiving service, mean busy period, distribution of queue length, and the probability of encountering the system in certain states, such as empty, full, having an available server or having to wait a certain time to be served.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this article is to forecast the present situation of citizenship formation in the field of Swedish education. In highlighting trends and tendencies in the educational assignment to provide for democratic citizenship in the first decade of the 21st century, which can be characterised as lacking collective visions for change, three depictions of citizenship are prevailing: citizenship formation for deliberation, for entrepreneurship and for therapeutic intervention. These depictions are analysed in terms of the direction for action taking and attention that they stress and produce as concerns citizenship in the making. The first one, citizenship formation for deliberation, stresses an inward-looking and inward-feeling citizenship. The second one, citizenship formation for entrepreneurship, stresses an inward-looking and outward-making citizenship, and the third one, citizenship formation for therapeutic intervention, stresses an inward-looking and outward-making citizenship. Taking on this forecast, which actualises democracy as something that is already achieved as a consequence of an assumedly post political situation, we argue that citizenship as well as society itself risks being pictured as apolitical and democratically “saturated.” This situation is hazardous, we argue, as it does not open up for change to come into question as desirable or even possible. Put differently, it leaves us with the notion that things have to be as they are, as we are living in the best of worlds. 

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This study had three objectives: (1) to develop a comprehensive truck simulation that executes rapidly, has a modular program construction to allow variation of vehicle characteristics, and is able to realistically predict vehicle motion and the tire-road surface interaction forces; (2) to develop a model of doweled portland cement concrete pavement that can be used to determine slab deflection and stress at predetermined nodes, and that allows for the variation of traditional thickness design factors; and (3) to implement these two models on a work station with suitable menu driven modules so that both existing and proposed pavements can be evaluated with respect to design life, given specific characteristics of the heavy vehicles that will be using the facility. This report summarizes the work that has been performed during the first year of the study. Briefly, the following has been accomplished: A two dimensional model of a typical 3-S2 tractor-trailer combination was created. A finite element structural analysis program, ANSYS, was used to model the pavement. Computer runs have been performed varying the parameters defining both vehicle and road elements. The resulting time specific displacements for each node are plotted, and the displacement basin is generated for defined vehicles. Relative damage to the pavement can then be estimated. A damage function resulting from load replications must be assumed that will be reflected by further pavement deterioration. Comparison with actual damage on Interstate 80 will eventually allow verification of these procedures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Changes in regulations and tighter interpretations of existing regulations engaged participants in 14th annual Labor and Employment Roundtable, hosted by the Cornell Institute for Hospitality Labor and Employment Relations. They also reviewed changes in union organizing rules. Two Supreme Court decisions dealt with the challenging application of accommodating workers’ health and religious needs, while a new ruling by the National Labor Relations Board calls into question the supposedly arm’s length relationship of employee leasing firms and their clients, as well as franchisors and franchisees. The NLRB also has shortened the campaign time for union elections. In one Supreme Court case, Young v. United Parcel Services, Inc., the Court pointed to a simple principle when employers implement policies for those with illness or medical conditions. Policies must be consistent with regard to how on-job and off-job health issues are treated, and the company’s policy must not be driven by economic considerations. That is, the Court stated that an employer’s denial of a light-duty assignment for an employee could not be based on cost or convenience. The case relating to religious accommodation also involved an economic hinge. In an earlier case, the Court had held that religious accommodations are limited to that which would have no more than a de minimus cost on the employer. In this case, EEOC v. Abercrombie & Fitch Stores Inc., Abercrombie had declined to hire a woman wearing a headscarf on the assumption that she would need a religious accommodation. The Court frowned on the idea that an employer would take religious accommodations into account when deciding whether to hire a person. The franchising industry is attempting to make sense of the NLRB ruling regarding joint employment, in which the board ruled that franchisors that maintain some kind of control over their franchisees’ employees should be considered joint employers of those employees. This is a complicated matter, and the situation is still in flux. Finally, with regard to the telescoped union campaign ruling, these are supposed to benefit the unions. So far, however, there’s no indication that the change has affected the overall outcome of union election campaigns.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background Timely assessment of the burden of HIV/AIDS is essential for policy setting and programme evaluation. In this report from the Global Burden of Disease Study 2015 (GBD 2015), we provide national estimates of levels and trends of HIV/AIDS incidence, prevalence, coverage of antiretroviral therapy (ART), and mortality for 195 countries and territories from 1980 to 2015. Methods For countries without high-quality vital registration data, we estimated prevalence and incidence with data from antenatal care clinics and population-based seroprevalence surveys, and with assumptions by age and sex on initial CD4 distribution at infection, CD4 progression rates (probability of progression from higher to lower CD4 cell-count category), on and off antiretroviral therapy (ART) mortality, and mortality from all other causes. Our estimation strategy links the GBD 2015 assessment of all-cause mortality and estimation of incidence and prevalence so that for each draw from the uncertainty distribution all assumptions used in each step are internally consistent. We estimated incidence, prevalence, and death with GBD versions of the Estimation and Projection Package (EPP) and Spectrum software originally developed by the Joint United Nations Programme on HIV/AIDS (UNAIDS). We used an open-source version of EPP and recoded Spectrum for speed, and used updated assumptions from systematic reviews of the literature and GBD demographic data. For countries with high-quality vital registration data, we developed the cohort incidence bias adjustment model to estimate HIV incidence and prevalence largely from the number of deaths caused by HIV recorded in cause-of-death statistics. We corrected these statistics for garbage coding and HIV misclassifi cation. Findings Global HIV incidence reached its peak in 1997, at 3·3 million new infections (95% uncertainty interval [UI] 3·1–3·4 million). Annual incidence has stayed relatively constant at about 2·6 million per year (range 2·5–2·8 million) since 2005, after a period of fast decline between 1997 and 2005. The number of people living with HIV/AIDS has been steadily increasing and reached 38·8 million (95% UI 37·6–40·4 million) in 2015. At the same time, HIV/AIDS mortality has been declining at a steady pace, from a peak of 1·8 million deaths (95% UI 1·7–1·9 million) in 2005, to 1·2 million deaths (1·1–1·3 million) in 2015. We recorded substantial heterogeneity in the levels and trends of HIV/AIDS across countries. Although many countries have experienced decreases in HIV/AIDS mortality and in annual new infections, other countries have had slowdowns or increases in rates of change in annual new infections. Interpretation Scale-up of ART and prevention of mother-to-child transmission has been one of the great successes of global health in the past two decades. However, in the past decade, progress in reducing new infections has been slow, development assistance for health devoted to HIV has stagnated, and resources for health in low-income countries have grown slowly. Achievement of the new ambitious goals for HIV enshrined in Sustainable Development Goal 3 and the 90-90-90 UNAIDS targets will be challenging, and will need continued eff orts from governments and international agencies in the next 15 years to end AIDS by 2030.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thesis (Ph.D.)--University of Washington, 2016-06

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In today's fast-paced and interconnected digital world, the data generated by an increasing number of applications is being modeled as dynamic graphs. The graph structure encodes relationships among data items, while the structural changes to the graphs as well as the continuous stream of information produced by the entities in these graphs make them dynamic in nature. Examples include social networks where users post status updates, images, videos, etc.; phone call networks where nodes may send text messages or place phone calls; road traffic networks where the traffic behavior of the road segments changes constantly, and so on. There is a tremendous value in storing, managing, and analyzing such dynamic graphs and deriving meaningful insights in real-time. However, a majority of the work in graph analytics assumes a static setting, and there is a lack of systematic study of the various dynamic scenarios, the complexity they impose on the analysis tasks, and the challenges in building efficient systems that can support such tasks at a large scale. In this dissertation, I design a unified streaming graph data management framework, and develop prototype systems to support increasingly complex tasks on dynamic graphs. In the first part, I focus on the management and querying of distributed graph data. I develop a hybrid replication policy that monitors the read-write frequencies of the nodes to decide dynamically what data to replicate, and whether to do eager or lazy replication in order to minimize network communication and support low-latency querying. In the second part, I study parallel execution of continuous neighborhood-driven aggregates, where each node aggregates the information generated in its neighborhoods. I build my system around the notion of an aggregation overlay graph, a pre-compiled data structure that enables sharing of partial aggregates across different queries, and also allows partial pre-computation of the aggregates to minimize the query latencies and increase throughput. Finally, I extend the framework to support continuous detection and analysis of activity-based subgraphs, where subgraphs could be specified using both graph structure as well as activity conditions on the nodes. The query specification tasks in my system are expressed using a set of active structural primitives, which allows the query evaluator to use a set of novel optimization techniques, thereby achieving high throughput. Overall, in this dissertation, I define and investigate a set of novel tasks on dynamic graphs, design scalable optimization techniques, build prototype systems, and show the effectiveness of the proposed techniques through extensive evaluation using large-scale real and synthetic datasets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This research deals with the evaluation of the Programa do Governo Federal para Urbanização de Favelas Habitar Brasil(1993) carried out in the Africa slum - Redinha neighbourhood in Natal-Rn. This study carried out in period from 2005 to 2006 searches to identify the effects of the actions proposed by Program in 1993-1994 about the current urbanistic configuration of the Africa community. It analyzes the effectiveness in the process of achievement of the considered objectives to habitation, communitity equipments, infrastructure and agrarian regularization. On the evaluation process, it has been as reference the works developed by Adauto Cardoso (2004), Blaine Worthen (2004), Ronaldo Garcia (2001) and Rosângela Paz (2006). About the Habitational Policy with approach to the Urbanistic Right and the right to the housing, the reflections by Raquel Rolnik, Nabil Bonduki, Ermínia Maricato, Saule Júnior, Betânia de Moraes Alfonsin and Edésio Fernandes are main references. To gauge the execution of the objectives proposed by Habitar Brasil in 1993, it has searched in the documentary data of the time and in information gotten in interviews with technicians that had participated of the program, consistent references on what was considered, what was executed and the process of the intervention of Habitar Brasil in the Africa community. The area analysis in 2005-2006 has developed on the base of the urbanistic survey of the current situation from the four performance lines of the Program: habitation, infrastructure, community equipments and agrarian regularization, with a current urbanistic evaluation of Africa considering the intervention carried out in 1993 and 1994. The study points out the context of Brazilian Habitational Policy where the Programa Habitar Brasil was launched, explaining the main principles of the Program. In terms of local, it empahsizes the administrative-political factors that had contributed so that Natal-Rn city has been pioneering in the resources captation of Habitar Brazil (1993). Considering Habitar Brazil in Africa, the work argues and presents the intervention diagnosis and the proposal, developed by Program in 1993 evidencing the local problem of the time. After that, it makes a current reading of the area, identifying in 2006 representative elements of Habitar Brasil (1993-1994) for the Africa community. It identifies significant advances in the constitution of the institucional apparatus of the plaining system of Habitation of Social Interest for the city of Natal and points the fragilities in the implementation of the urban infrastructure actions and above all in the achievement of the objectives of the agrarian regularization

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this thesis was to investigate, using the real-time test case of the 2014 Commonwealth Games, whether the realist synthesis methodology could contribute to the making of health policy in a meaningful way. This was done by looking at two distinct research questions: first, whether realist synthesis could contribute new insights to the health policymaking process, and second, whether the 2014 Commonwealth Games volunteer programme was likely to have any significant, measurable, impact on health inequalities experienced by large sections of the host population. The 2014 Commonwealth Games legacy laid out ambitious plans for the event, in which it was anticipated that it would provide explicit opportunities to impact positively on health inequalities. By using realist synthesis to unpick the theories underpinning the volunteer programme, the review identifies the population subgroups for whom the programme was likely to be successful, how this could be achieved and in what contexts. In answer to the first research question, the review found that while realist methods were able to provide a more nuanced exposition of the impacts of the Games volunteer programme on health inequalities than previous traditional reviews had been able to provide, there were several drawbacks to using the method. It was found to be resource-intensive and complex, encouraging the exploration of a much wider set of literatures at the expense of an in-depth grasp of the complexities of those literatures. In answer to the second research question, the review found that the Games were, if anything, likely to exacerbate health inequalities because the programme was designed in such a way that individuals recruited to it were most likely to be those in least need of the additional mental and physical health benefits that Games volunteering was designed to provide. The following thesis details the approach taken to investigate both the realist approach to evidence synthesis and the likelihood that the 2014 Games volunteer programme would yield the expected results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : Rare diseases are debilitating conditions often leading to severe clinical manifestations for affected patients. Orphan drugs have been developed to treat these rare diseases affecting a small number of individuals. Incentives in the legal framework aimed to recoup the research and development cost of orphan drugs for pharmaceutical companies have been implemented in the United States and the European Union. At the present time, Canada is still lacking a legal and policy framework for orphan drugs. Several problems at the federal and provincial levels remain: lack of research funds for rare diseases, discrepancies on orphan drug policies between provinces, difficulties to access and reimburse these high price drugs. Recommendations and measures are proposed, such as a pan-Canadian (national) scientific committee to establish evidence-based guidelines for patients to access orphan drugs uniformly in all provinces with a disease specific registry, a formal agreement for a centralized Canadian public funding reimbursement procedure, and increasing the role of “guardian” for prices by the Patented Medicines Review Board in Canada. These recommendations and measures will be beneficial for the implementation of a policy framework for orphan drugs in Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The goal of Vehicle Routing Problems (VRP) and their variations is to transport a set of orders with the minimum number of vehicles at least cost. Most approaches are designed to solve specific problem variations independently, whereas in real world applications, different constraints are handled concurrently. This research extends solutions obtained for the traveling salesman problem with time windows to a much wider class of route planning problems in logistics. The work describes a novel approach that:  supports a heterogeneous fleet of vehicles  dynamically reduces the number of vehicles  respects individual capacity restrictions  satisfies pickup and delivery constraints  takes Hamiltonian paths (rather than cycles) The proposed approach uses Monte-Carlo Tree Search and in particular Nested Rollout Policy Adaptation. For the evaluation of the work, real data from the industry was obtained and tested and the results are reported.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.