885 resultados para Processus de formulation


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dans cet article, on cherche la viabilité analytique du Jeu à Deux Niveaux - JDN pour examiner la situation brésilienne dans l'Organisation Mondiale du Commerce - OMC. on cherche à voir, en même temps, si le perfectionnement des institutions démocratiques brésiliennes en ce qui concerne le processus de formulation de la politique extérieure sera capable d'améliorer la réponse aux demandes des groupes d'intérêt et d'élargir la compétence technique de la diplomatie brésilienne dans les négociations commerciales internationales. on cherche aussi à savoir si ce perfectionnement peut faire monter la crédibilité et la légitimité internationale des démarches brésiliennes au sein de l'OMC, dans le sens de tourner en leur faveur les régimes internationaux. Pour cela, on analyse le contentieux des brevets pharmaceutiques mené contre les États-Unis au sein de l'OMC.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta Dissertação objetiva analisar o aspecto normativo do FUNDEF e do FUNDEB com vistas a avaliar possibilidades de colaboração entre os entes federados para o financiamento da educação básica no Brasil por meio destes Fundos. Para isso, analisamos o processo de formulação do FUNDEF e do FUNDEB com vistas a identificar possibilidades de colaboração entre os entes federados e caracterizamos as possíveis formas de colaboração entre os entes federados presentes nas leis que regulamentam o FUNDEF e o FUNDEB. A metodologia de análise foi qualitativa com aproximações da análise do discurso. A discussão foi dividida em três capítulos, no primeiro capítulo analisamos os conceitos que se constituem nas categorias de análise do presente estudo, tais como Federalismo e descentralização, analisamos ainda a estrutura de financiamento da educação básica no Brasil, partindo dos anos de 1930, ocasião em que surgiu no Brasil a concepção de Fundos para financiar a educação, contudo, focamos a análise no FUNDEF e no FUNDEB a partir da contextualização do período da redemocratização brasileira e da mudança da estrutura federativa proporcionada pela promulgação da CF/88, que possibilitou as bases que norteariam a mudança na concepção do papel do Estado. No segundo capítulo, analisamos os processos de formulação e implantação do FUNDEF e do FUNDEB e, dentro desse contexto, as relações federativas com ênfase nas possibilidades de colaboração entre os entes federados decorrentes destes processos no Brasil. Para isso, analisamos os documentos legais citados anteriormente neste texto, que consubstanciaram a criação e operacionalização de ambos os Fundos. Analisamos ainda dados de matrículas e financeiros, na perspectiva de avaliar as formas de colaboração entre os entes federados, bem como as relações federativas proporcionadas pela implantação de ambos os Fundos no país. No terceiro e último capítulo, analisamos três indicadores, surgidos da análise do processo de formulação e implantação do FUNDEF e do FUNDEB no Brasil, trabalhados no segundo capítulo, a saber: (i) coordenação federativa a partir da instituição do FUNDEF e do FUNDEB para o financiamento da educação básica no Brasil e suas implicações para a colaboração entre os entes federados; (ii) efeitos da redistribuição dos recursos financeiros proporcionada pelo FUNDEF e pelo FUNDEB nos municípios e Estados brasileiros e a participação da União; (iii) efeitos da política de financiamento do FUNDEF e do FUNDEB sobre as matrículas da educação básica em nível regional e nacional. Concluímos que o FUNDEF focalizou recursos no ensino fundamental, o que acarretou a indução de políticas nos Estados e municípios brasileiros. No contexto do FUNDEB a indução de políticas e ações por parte da União para os entes federados permaneceu e se fortaleceu, o que levou a um processo de colaboração regulada pela União.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis l’adoption de la Loi 90 en 2002, la Loi sur les infirmières et infirmiers (LII, article 36) confère une autonomie élargie aux infirmières en reconnaissant, notamment, leur compétence et leur responsabilité à l’égard de l’évaluation clinique qui est représentée dans cette loi comme l’assise de l’exercice infirmier (Pellerin, 2009; OIIQ, 2010). La collecte des données constitue une étape fondamentale du processus d’évaluation clinique (Dillon, 2007; Doyon, Brûlé & Cloutier, 2002; Pellerin, 2009; Weber & Kelley, 2007). L’infirmière d’urgence a une responsabilité majeure à l’égard de la collecte des données. En effet, elle œuvre auprès de clientèles de tous âges qui présentent des problèmes de santé variés, aigus et parfois urgents et doit souvent intervenir, sur la base de son évaluation clinique, avant qu’un diagnostic n’ait été établi ou que le patient n’ait été vu par le médecin (Newberry & Criddle, 2005). Or, malgré toute l’importance que revêtent dorénavant l’évaluation clinique et la collecte des données au sens de la loi, ce rôle de l’infirmière semble tarder à s’actualiser dans la pratique clinique. Le but de cette étude qualitative descriptive consiste à explorer les perceptions d’infirmières, de gestionnaires en soins infirmiers et d’infirmières ressources cliniques d’urgence relativement à la réalisation de la collecte des données. La norme clinique « collecte des données » (assessment) de l’Emergency Nurses Association (1999) constitue le cadre de référence de l’étude. Cinq entrevues individuelles semi-dirigées de 60 minutes ainsi qu’un groupe de discussion de 90 minutes ont été réalisés auprès d’infirmières d’urgence. Un deuxième groupe de discussion a également réuni deux gestionnaires en soins infirmiers et deux infirmières ressources cliniques de l’urgence. Les données recueillies ont été analysées selon l’approche proposée par Miles et Huberman (2003). Les résultats obtenus démontrent que les infirmières considèrent la collecte des données comme un aspect fondamental de leur pratique à l’urgence, qui contribue à améliorer la qualité et la sécurité des soins dispensés. Or, les résultats révèlent également que leur compréhension de la collecte des données est variable, que leur pratique est aléatoire et largement influencée par le modèle biomédical. Plusieurs facteurs influencent la pratique des infirmières relativement à la collecte des données notamment : la conception individuelle de la collecte des données et du rôle infirmier, les relations et l’interaction avec les membres de l’équipe des soins infirmiers et les autres professionnels ainsi que le soutien de l’organisation et des gestionnaires en soins infirmiers. Ce dernier facteur semble prépondérant dans le contexte de l’urgence et démontre que le soutien des gestionnaires et des infirmières ressources cliniques influence de façon importante la pratique dans les milieux cliniques. Cette étude propose des pistes de réflexion sur la formation académique, la formation continue, l’administration des soins infirmiers et la collaboration interprofessionnelle qui pourraient faciliter l’actualisation du rôle des infirmières à l’égard de la collecte des données et de l’évaluation clinique afin d’améliorer la qualité des soins dispensés à l’urgence.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A kinetic spectrophotometric method with aid of chemometrics is proposed for the simultaneous determination of norfloxacin and rifampicin in mixtures. The proposed method was applied for the simultaneous determination of these two compounds in pharmaceutical formulation and human urine samples, and the results obtained are similar to those obtained by high performance liquid chromatography.