580 resultados para Benchmarks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A number of studies show that New Public Management reforms have altered the current identity benchmarks of public officials, particularly by hybridizing values or management practices. However, existing studies have largely glossed over the sense of belonging of officials when their organization straddles the concerns of public service and private enterprise, so that the boundary between public and private sector is blurred. The purpose of this article is precisely to explore this sense of belonging in the context of organizational hybridization. It does so by drawing on the results of research conducted among the employees of a public unemployment insurance fund in Switzerland. On the one hand, the analysis shows how much their markers of belonging are hybrid, multiple and constructed in negative terms (with regard to the State), while indicating that the working practices of the employees point to an identity that is nevertheless closely bound with the public sector. On the other hand, the analysis shows that the organization plays strategically with its State status, by exploiting either its private or public identity in line with the needs related to its external image. The article concludes with a discussion of the results highlighting the strategic functionality of the hybrid identity of the actors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND: Advances in nebulizer design have produced both ultrasonic nebulizers and devices based on a vibrating mesh (vibrating mesh nebulizers), which are expected to enhance the efficiency of aerosol drug therapy. The aim of this study was to compare 4 different nebulizers, of 3 different types, in an in vitro model using albuterol delivery and physical characteristics as benchmarks. METHODS: The following nebulizers were tested: Sidestream Disposable jet nebulizer, Multisonic Infra Control ultrasonic nebulizer, and the Aerogen Pro and Aerogen Solo vibrating mesh nebulizers. Aerosol duration, temperature, and drug solution osmolality were measured during nebulization. Albuterol delivery was measured by a high-performance liquid chromatography system with fluorometric detection. The droplet size distribution was analyzed with a laser granulometer. RESULTS: The ultrasonic nebulizer was the fastest device based on the duration of nebulization; the jet nebulizer was the slowest. Solution temperature decreased during nebulization when the jet nebulizer and vibrating mesh nebulizers were used, but it increased with the ultrasonic nebulizer. Osmolality was stable during nebulization with the vibrating mesh nebulizers, but increased with the jet nebulizer and ultrasonic nebulizer, indicating solvent evaporation. Albuterol delivery was 1.6 and 2.3 times higher with the ultrasonic nebulizer and vibrating mesh nebulizers devices, respectively, than with the jet nebulizer. Particle size was significantly higher with the ultrasonic nebulizer. CONCLUSIONS: The in vitro model was effective for comparing nebulizer types, demonstrating important differences between nebulizer types. The new devices, both the ultrasonic nebulizers and vibrating mesh nebulizers, delivered more aerosolized drug than traditional jet nebulizers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this study is to examine whether Corporate Social Responsibility (CSR) announcements of the three biggest American fast food companies (McDonald’s, YUM! Brands and Wendy’s) have any effect on their stock returns as well as on the returns of the industry index (Dow Jones Restaurants and Bars). The time period under consideration starts on 1st of May 2001 and ends on 17th of October 2013. The stock market reaction is tested with an event study utilizing CAPM. The research employs the daily stock returns of the companies, the index and the benchmarks (NASDAQ and NYSE). The test of combined announcements did not reveal any significant effect on the index and McDonald’s. However the stock returns of Wendy’s and YUM! Brands reacted negatively. Moreover, the company level analyses showed that to their own CSR releases McDonald’s stock returns respond positively, YUM! Brands reacts negatively and Wendy’s does not have any reaction. Plus, it was found that the competitors of the announcing company tend to react negatively to all the events. Furthermore, the division of the events into sustainability categories showed statistically significant negative reaction from the Index, McDonald’s and YUM! Brands towards social announcements. At the same time only the index was positively affected by to the economic and environmental CSR news releases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study investigates instructors’ perceptions of reading instruction and difficulties among Language Instruction for Newcomers to Canada (LINC) Level 1-3 learners. Statistics Canada reports that 60% of immigrants possess inadequate literacy skills. Newcomers are placed in classes using the Canadian Language Benchmarks but large, mixed-level classes create little opportunity for individualized instruction, leading some clients to demonstrate little change in their reading benchmarks. Data were collected (via demographic questionnaires, semi-structured interviews, teaching plans, and field study notes) to create a case study of five LINC instructors’ perceptions of why some clients do not progress through the LINC reading levels as expected and how their previous experiences relate to those within the LINC program. Qualitative analyses of the data revealed three primary themes: client/instructor background and classroom needs, reading, strategies, methods and challenges, and assessment expectations and progress, each containing a number of subthemes. A comparison between the themes and literature demonstrated six areas for discussion: (a) some clients, specifically refugees, require more time to progress to higher benchmarks; (b) clients’ level of prior education can be indicative of their literacy skills; (c) clients with literacy needs should be separated and placed into literacy-specific classes; (d) evidence-based approaches to reading instruction were not always evident in participants’ responses, demonstrating a lack of knowledge about these approaches; (e) first language literacy influences second language reading acquisition through a transfer of skills; and (f) collaboration in the classroom supports learning by extending clients’ capabilities. These points form the basis of recommendations about how reading instruction might be improved for such clients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This note develops general model-free adjustment procedures for the calculation of unbiased volatility loss functions based on practically feasible realized volatility benchmarks. The procedures, which exploit the recent asymptotic distributional results in Barndorff-Nielsen and Shephard (2002a), are both easy to implement and highly accurate in empirically realistic situations. On properly accounting for the measurement errors in the volatility forecast evaluations reported in Andersen, Bollerslev, Diebold and Labys (2003), the adjustments result in markedly higher estimates for the true degree of return-volatility predictability.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du poumon a une incidence et une létalité parmi les plus hautes de tous les cancers diagnostiqués au Canada. En considérant la gravité du pronostic et des symptômes de la maladie, l’accès au traitement dans les plus brefs de délais est essentiel. Malgré l’engagement du gouvernement fédéral et les gouvernements provinciaux de réduire les délais de temps d’attente, des balises pour les temps d’attente pour le traitement d’un cancer ne sont toujours pas établis. En outre, le compte-rendu des indicateurs des temps d’attente n’est pas uniforme à travers les provinces. Une des solutions proposées pour la réduction des temps d’attente pour le traitement du cancer est les équipes interdisciplinaires. J’ai complété un audit du programme interdisciplinaire traitant le cancer du poumon à l’Hôpital général juif (l’HGJ) de 2004 à 2007. Les objectifs primaires de l’étude étaient : (1) de faire un audit de la performance de l’équipe interdisciplinaire à l’HGJ en ce qui concerne les temps d’attente pour les intervalles critiques et les sous-groupes de patients ; (2) de comparer les temps d’attente dans la trajectoire clinique des patients traités à l’HGJ avec les balises qui existent ; (3) de déterminer les facteurs associés aux délais plus longs dans cette population. Un objectif secondaire de l’étude était de suggérer des mesures visant à réduire les temps d’attente. Le service clinique à l’HGJ a été évalué selon les balises proposées par le British Thoracic Society, Cancer Care Ontario, et la balise pan-canadienne pour la radiothérapie. Les patients de l’HGJ ont subi un délai médian de 9 jours pour l’intervalle «Ready to treat to first treatment», et un délai médian de 30 jours pour l’intervalle entre le premier contact avec l’hôpital et le premier traitement. Les patients âgés de plus de 65 ans, les patients avec une capacité physique diminuée, et les patients avec un stade de tumeur limité étaient plus à risque d’échouer les balises pour les temps d’attente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes de santé mentale représentent un pourcentage important du fardeau de morbidité mondiale. Cela, ajouté aux ressources limitées disponibles pour le fonctionnement des établissements, encourage l’intérêt pour l’évaluation de leur performance. Ce projet propose d’utiliser le modèle ÉGIPSS pour évaluer la performance de deux hôpitaux psychiatriques dans deux systèmes de santé différents, le « Hospital Psiquiátrico Universitario del Valle » (HPUV) situé en Colombie et l’Institut universitaire en santé mentale Douglas au Québec. Le modèle a été choisi en raison de la richesse des dimensions qu’il comprend et son caractère global. Les données ont été recueillies à travers des entrevues et de la documentation disponible dans les établissements. L’analyse des résultats montre que le Douglas a une meilleure performance générale, même tenant compte qu’il se trouve dans un pays à haut revenu avec des standards d’évaluation supérieures. De vingt-et-une sous-dimensions évaluées, l’HPUV a présente six avec un état préoccupante et le Douglas aucune. L’analyse des résultats a aussi servi pour identifier des facteurs de causalité critiques des problèmes de performance, soit l’organisation à l’intérieur des établissements, la communication interne, les plans de santé mentale et la disponibilité des professionnels. La comparaison a permis apprécier l’influence de ces éléments dans les deux contextes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les progrès médicaux, technologiques et scientifiques réalisés au cours des dernières décennies permettent à de nombreux enfants de survivre à la prématurité, à la maladie ou à des traumatismes physiques. Certains survivent avec des problèmes de santé chroniques qui altèrent le fonctionnement de plusieurs organes. Certains doivent composer avec des incapacités physiques ou intellectuelles légères, modérées ou sévères et sont maintenus en situation de dépendance médico technologique dans un contexte où les services d’aide et le soutien à domicile ne répondent pas aux besoins réels des enfants et de leur famille. Ces avancées dans le champ de la santé offrent des choix auparavant inexistants : sauver ou non la vie de l’enfant? Ces nouvelles possibilités imposent aux parents des décisions parfois difficiles qui engagent des valeurs, des croyances et ont d’énormes conséquences pour les acteurs (l’enfant, ses parents, sa famille, les membres de l’équipe soignante et des professionnels), les institutions et toute la société. Ces choix renvoient à des visions des choses et du monde, à différentes conceptions de la vie et de la mort. En nous intéressant à la trajectoire décisionnelle de parents d’enfant atteint d’une condition médicale complexe, nous souhaitions comprendre la façon dont les parents prennent des décisions à propos de leur enfant. Nous voulions également saisir les motifs décisionnels et leur façon d’évoluer avec le temps. La pensée complexe d’Edgar Morin constitue l’assise théorique principale de la recherche. Nous avons réalisé des entretiens semi-dirigés auprès de 25 parents dont 15 mères et 10 pères. Parmi les principaux résultats, notons la multiplicité des types et des objets de décision, l’influence multisystémique des motifs décisionnels et la présence de processus qui se développent au fil de la trajectoire. Les résultats permettent de proposer quelques repères susceptibles d’améliorer l’accompagnement des parents exposés à des décisions complexes à propos de leur enfant gravement malade.