949 resultados para Unified Formulation
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
En utilisant le cadre d’analyse de Honig (2006) qui étudie l’implantation d’une politique publique à la lumière des dimensions que sont le lieu, la politique et les acteurs, la présente recherche explore la relation entre l’implantation et la formulation d’une politique publique. Introduite en éducation par l’adoption, en 2002, du projet de loi 124 (Québec, 2002), la gestion axée sur les résultats s’est traduite par l’élaboration d’une planification stratégique pour la commission scolaire et d’un plan de réussite découlant d’un projet éducatif pour l’établissement scolaire. Or, l’étude de cas unique de cette recherche qui s’insère dans un projet dirigé par le professeur Martial Dembélé sur la gestion axée sur les résultats à l’ordre d’enseignement primaire au Québec (FQRSC, 2007-2008 ; CRSH, 2007-2010) permet l’examen de la relation formulation - implantation du projet éducatif/plan de réussite d’une école primaire située dans la grande région de Montréal. Les résultats de cette recherche démontrent que la formulation d’une politique a un impact sur son implantation, mais cette dimension n’est pas exclusive à une implantation effective. Les autres dimensions que sont les acteurs et le lieu ont tout autant d’effet : une ou deux dimensions peuvent pallier à la faiblesse de la troisième.
Resumo:
Depuis l’adoption de la Loi 90 en 2002, la Loi sur les infirmières et infirmiers (LII, article 36) confère une autonomie élargie aux infirmières en reconnaissant, notamment, leur compétence et leur responsabilité à l’égard de l’évaluation clinique qui est représentée dans cette loi comme l’assise de l’exercice infirmier (Pellerin, 2009; OIIQ, 2010). La collecte des données constitue une étape fondamentale du processus d’évaluation clinique (Dillon, 2007; Doyon, Brûlé & Cloutier, 2002; Pellerin, 2009; Weber & Kelley, 2007). L’infirmière d’urgence a une responsabilité majeure à l’égard de la collecte des données. En effet, elle œuvre auprès de clientèles de tous âges qui présentent des problèmes de santé variés, aigus et parfois urgents et doit souvent intervenir, sur la base de son évaluation clinique, avant qu’un diagnostic n’ait été établi ou que le patient n’ait été vu par le médecin (Newberry & Criddle, 2005). Or, malgré toute l’importance que revêtent dorénavant l’évaluation clinique et la collecte des données au sens de la loi, ce rôle de l’infirmière semble tarder à s’actualiser dans la pratique clinique. Le but de cette étude qualitative descriptive consiste à explorer les perceptions d’infirmières, de gestionnaires en soins infirmiers et d’infirmières ressources cliniques d’urgence relativement à la réalisation de la collecte des données. La norme clinique « collecte des données » (assessment) de l’Emergency Nurses Association (1999) constitue le cadre de référence de l’étude. Cinq entrevues individuelles semi-dirigées de 60 minutes ainsi qu’un groupe de discussion de 90 minutes ont été réalisés auprès d’infirmières d’urgence. Un deuxième groupe de discussion a également réuni deux gestionnaires en soins infirmiers et deux infirmières ressources cliniques de l’urgence. Les données recueillies ont été analysées selon l’approche proposée par Miles et Huberman (2003). Les résultats obtenus démontrent que les infirmières considèrent la collecte des données comme un aspect fondamental de leur pratique à l’urgence, qui contribue à améliorer la qualité et la sécurité des soins dispensés. Or, les résultats révèlent également que leur compréhension de la collecte des données est variable, que leur pratique est aléatoire et largement influencée par le modèle biomédical. Plusieurs facteurs influencent la pratique des infirmières relativement à la collecte des données notamment : la conception individuelle de la collecte des données et du rôle infirmier, les relations et l’interaction avec les membres de l’équipe des soins infirmiers et les autres professionnels ainsi que le soutien de l’organisation et des gestionnaires en soins infirmiers. Ce dernier facteur semble prépondérant dans le contexte de l’urgence et démontre que le soutien des gestionnaires et des infirmières ressources cliniques influence de façon importante la pratique dans les milieux cliniques. Cette étude propose des pistes de réflexion sur la formation académique, la formation continue, l’administration des soins infirmiers et la collaboration interprofessionnelle qui pourraient faciliter l’actualisation du rôle des infirmières à l’égard de la collecte des données et de l’évaluation clinique afin d’améliorer la qualité des soins dispensés à l’urgence.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La comparaison de certaines institutions fondamentales de la responsabilité professionnelle avec les outils développés par la « médecine fondée sur les faits », paradigme émergent en matière de pratique clinique, permet de mettre en lumière l’unité conceptuelle variable de certaines notions partagées par la médecine et le droit. Ces observations prennent une acuité particulière alors que la faute, telle que généralement conçue par le champ de la responsabilité médicale, pourrait se révéler perméable aux conceptions de la « bonne pratique clinique » sous-tendues par la médecine fondée sur les faits. Cette perspective pourrait se révéler utile à l’analyse de ce que l’auteur Daniel Jutras a qualifié de « crise conceptuelle » de la responsabilité médicale.
Resumo:
L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.
Resumo:
Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.
Resumo:
Background: Literature on scoliosis screening is vast, however because of the observational nature of available data and methodological flaws, data interpretation is often complex, leading to incomplete and sometimes, somewhat misleading conclusions. The need to propose a set of methods for critical appraisal of the literature about scoliosis screening, a comprehensive summary and rating of the available evidence appeared essential. METHODS: To address these gaps, the study aims were: i) To propose a framework for the assessment of published studies on scoliosis screening effectiveness; ii) To suggest specific questions to be answered on screening effectiveness instead of trying to reach a global position for or against the programs; iii) To contextualize the knowledge through expert panel consultation and meaningful recommendations. The general methodological approach proceeds through the following steps: Elaboration of the conceptual framework; Formulation of the review questions; Identification of the criteria for the review; Selection of the studies; Critical assessment of the studies; Results synthesis; Formulation and grading of recommendations in response to the questions. This plan follows at best GRADE Group (Grades of Recommendation, Assessment, Development and Evaluation) requirements for systematic reviews, assessing quality of evidence and grading the strength of recommendations. CONCLUSIONS: In this article, the methods developed in support of this work are presented since they may be of some interest for similar reviews in scoliosis and orthopaedic fields.
Resumo:
Le problème de la non-identité est une difficulté sérieuse qui ne peut pas être ignorée par les théories de justice intergénérationnelle dans la mesure où ce problème tend à remettre en cause l'idée de responsabilité envers les générations futures. C'est dans ces conditions que ce texte propose d'éprouver le problème de la non-identité en faisant ressortir les concepts qui semblent y être sous-tendus et articulés d'une façon particulière, à savoir les concepts de réalité et de possibilité. Or, il apparaît que la philosophie hégélienne arrive à point nommé pour exprimer l'articulation qui se joue entre réalité et possibilité dans le problème en question. De cette façon, Hegel apparaît comme étant un interlocuteur privilégié pour expliciter ce que recouvre le problème de la non-identité.
Resumo:
We discuss a formulation for active example selection for function learning problems. This formulation is obtained by adapting Fedorov's optimal experiment design to the learning problem. We specifically show how to analytically derive example selection algorithms for certain well defined function classes. We then explore the behavior and sample complexity of such active learning algorithms. Finally, we view object detection as a special case of function learning and show how our formulation reduces to a useful heuristic to choose examples to reduce the generalization error.
Resumo:
Regularization Networks and Support Vector Machines are techniques for solving certain problems of learning from examples -- in particular the regression problem of approximating a multivariate function from sparse data. We present both formulations in a unified framework, namely in the context of Vapnik's theory of statistical learning which provides a general foundation for the learning problem, combining functional analysis and statistics.
Resumo:
By using suitable parameters, we present a uni¯ed aproach for describing four methods for representing categorical data in a contingency table. These methods include: correspondence analysis (CA), the alternative approach using Hellinger distance (HD), the log-ratio (LR) alternative, which is appropriate for compositional data, and the so-called non-symmetrical correspondence analysis (NSCA). We then make an appropriate comparison among these four methods and some illustrative examples are given. Some approaches based on cumulative frequencies are also linked and studied using matrices. Key words: Correspondence analysis, Hellinger distance, Non-symmetrical correspondence analysis, log-ratio analysis, Taguchi inertia