709 resultados para Produit phosphocalcique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe peu d’études sur les effets physiologiques et pharmacologiques du médicament anesthésiant le plus utilisé chez les anoures, la tricaïne méthanesulfonate, et son utilisation chez la grenouille Xenopus laevis. Notre premier objectif était d’évaluer l’effet de bains d’immersion de 20 minutes de 1 et 2 g/L de tricaïne méthanesulfonate sur la fonction cardiorespiratoire, l’analgésie et les réflexes ainsi que d’étudier la pharmacocinétique. Nos résultats démontrent que des bains de 1 et 2 g/L produisent une anesthésie chirurgicale de 30 et 60 minutes respectivement, sans effet significatif sur le système cardiorespiratoire. À la suite d’une immersion à 2 g/L, on note une demi-vie terminale de 3,9 heures. Cette dose ne produit aucun effet sur l’histologie des tissus 24 heures après l’immersion. Dans une deuxième expérience, nous avons évalué les effets d’une surdose de tricaïne méthanesulfonate en bain d’immersion sur les systèmes cardiorespiratoire et nerveux central grâce à l’électroencéphalographie ainsi que l’effet d’une injection de pentobarbital sodique après 2 heures d’immersion. L’EEG montre un effet dépresseur sur le SNC avec l’utilisation de la tricaïne méthanesulfonate sans voir un arrêt de signal d’EEG sur la période de 2 heures d’enregistrement. Les surdoses à 1 g/L et 3 g/L n’ont pas d’effet significatif sur le rythme cardiaque, et l’injection de pentobarbital suite au bain d’immersion de tricaïne méthanesulfonate est nécessaire pour induire l’euthanasie. Nous avons démontré que le bain de tricaïne méthanesulfonate peut produire une anesthésie de 30 à 60 minutes avec dépression du SNC sans effet cardiovasculaire chez les Xenopus laevis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire remonte aux premières années du phénomène publicitaire de masse et se penche sur les publicités des gouttes pour les yeux Murine et de l’antiseptique Listerine publiées dans les magazines au Québec entre 1925 et 1950. Les annonces de ces produits liés au corps et à ses soins insistent sur deux arguments de vente, soit la beauté et la santé. Comment ces idées sont-elles mises de l’avant par les créateurs des réclames motivés par l’objectif de vendre, telle est la question centrale ayant guidé nos recherches. Notre analyse porte plus particulièrement sur les stratégies publicitaires entourant les idées de la santé et de la beauté et montre qu’elles sont nombreuses et variées pour chaque produit. Notre étude vise aussi à faire ressortir l’évolution des arguments de vente selon le contexte des années 1920, 1930 et 1940, ainsi qu’à travers les normes et les valeurs alors en vigueur. Nous soutenons par ailleurs l’hypothèse qu’en misant tantôt sur la beauté, tantôt sur la santé, ou sur ces deux idées à la fois, il devenait possible pour les publicitaires de modifier l’image ou même la fonction de ces produits sans en changer les composantes, ajustant ainsi leur message aux événements socio-économiques et culturels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réforme de la fonction publique de 1908 constitue un moment décisif dans le développement de l’appareil étatique canadien. En effet, elle rejette un système jusque-là fondé sur le favoritisme, pour introduire les principes du mérite, de l’indépendance et de la neutralité des fonctionnaires, principes qui régissent encore aujourd'hui la fonction publique canadienne. Ces changements se produisent à la suite d’une longue réflexion sur la nature de la fonction publique, amorcée au cours de la seconde moitié du XIXe siècle, qui trouve largement écho dans le monde anglo-américain, mais qui s’est souvent butée à l'intérêt des politiciens pour le statu quo. Même si les grandes idées de réforme de la fonction publique sont connues, voire acceptées par certains dès les années 1870, ce n’est qu’à la suite du dépôt du rapport de la commission royale d’enquête de 1907-1908 que les politiciens y acquiescent en pratique et entreprennent des changements majeurs, en 1908. Le mémoire s’intéresse plus précisément à cette commission royale d’enquête de 1907-1908 et à la réforme législative qui s'ensuit, en 1908, épisode méconnu de l'histoire politique canadienne et assez peu documenté. L’étude cherche tout d’abord à déterminer le contexte politique et idéologique présidant à la création de cette commission d’enquête, puis en examine les travaux en profondeur afin de démontrer comment ses constats et recommandations ont poussé le gouvernement canadien à réformer la fonction publique et les principes directeurs qui en guident l'action. Cela fait, nous analyserons les différents éléments de la réforme elle-même, dans le but de voir comment elle rompt avec les conceptions qu'on entretient jusque-là et comment elle s’inscrit dans un nouveau cadre idéologique, produit d’une vision libérale de l’État.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à connaître et comprendre la province de Mérida au Venezuela, en analysant l’image que ses habitants construisent de celle-ci à l’aide de photographies de promotion touristique de la province, issues du matériel produit par l’office de tourisme de Mérida, CORMETUR. La recherche est conçue dans une perspective de méthodologie créative. Les participants ont été invités à élaborer –et à commenter- un collage en se servant, à leur guise, des photos fournies pour récréer leur image de leur province. C’est sur la base de ce travail que je cherche à comprendre la manière dont Mérida est perçue par ses habitants. Mon questionnement est théoriquement supporté par la notion d’ « image » ainsi que par le concept de « représentation », entendue dans l’approche constructiviste de Hall (1997), qui me permet ultérieurement d’interpréter les propos des Merideños rencontrés. Dans et à travers les représentations qu’ils construisent, il est possible de comprendre Mérida en tant qu’un « lieu », tel que défendu par Escobar (2001), au sein duquel convergent le « milieu de vie » et le « milieu touristique » qui le composent. De même, il est possible de saisir des enjeux identitaires, tels que Cuche (1996) et Hall (2007) entendent l’ « identité culturelle », dans leurs représentations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les musées d’art sont des lieux privilégiés pour contempler les productions artistiques du passé et d’aujourd’hui. En vertu de leur mandat, ceux-ci ont la tâche difficile de concilier leurs fonctions de délectation et d’éducation du public. Certains favorisent une approche plutôt que l’autre, mais tous portent un regard subjectif sur ce qu’ils exposent. Même si les oeuvres semblent être disposées naturellement dans les salles, tout ce qui relève de la conception et de la réalisation des expositions est savamment construit et résulte d’un parti-pris de la part du musée. En fonction de ses choix, c’est-à-dire de ce qu’elle présente ou non et comment elle le fait, l’institution muséale participe à la définition de ce qu’est l’art et influence la signification des oeuvres. En conséquence, chaque musée est producteur d’un discours qui véhicule notamment sa vision de l’histoire de l’art et ses valeurs institutionnelles. Ce discours est produit tant par les écrits qui sont installés auprès des oeuvres que par l’ensemble du dispositif muséographique qui les entoure. Ce mémoire explore, à travers l’analyse comparative de quatre musées des beaux-arts québécois, les éléments constitutifs d’un tel discours ainsi que les relations qui s’instaurent entre les différentes composantes du discours muséal et ce qui est montré dans leurs salles d’exposition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La traduction statistique requiert des corpus parallèles en grande quantité. L’obtention de tels corpus passe par l’alignement automatique au niveau des phrases. L’alignement des corpus parallèles a reçu beaucoup d’attention dans les années quatre vingt et cette étape est considérée comme résolue par la communauté. Nous montrons dans notre mémoire que ce n’est pas le cas et proposons un nouvel aligneur que nous comparons à des algorithmes à l’état de l’art. Notre aligneur est simple, rapide et permet d’aligner une très grande quantité de données. Il produit des résultats souvent meilleurs que ceux produits par les aligneurs les plus élaborés. Nous analysons la robustesse de notre aligneur en fonction du genre des textes à aligner et du bruit qu’ils contiennent. Pour cela, nos expériences se décomposent en deux grandes parties. Dans la première partie, nous travaillons sur le corpus BAF où nous mesurons la qualité d’alignement produit en fonction du bruit qui atteint les 60%. Dans la deuxième partie, nous travaillons sur le corpus EuroParl où nous revisitons la procédure d’alignement avec laquelle le corpus Europarl a été préparé et montrons que de meilleures performances au niveau des systèmes de traduction statistique peuvent être obtenues en utilisant notre aligneur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche vise à explorer le rôle du design dans l’acte d’achat et l’évaluation des produits. L’hypothèse de recherche repose sur le fait que le design est un obstacle à la rationalité dans le choix d’un bien, car ce dernier est rattaché à des singularités qui lui sont propres, le rendant difficilement comparable aux autres biens d’un même marché. Les produits deviennent difficiles à évaluer et à classer parmi les autres biens similaires dans le marché. En soi, la finalité et les vertus du design permettent aux consommateurs d’avoir une plus grande liberté de choix, mais ce rôle dynamique et économique que peut prendre le design peut aussi confondre les consommateurs devenant brouillés par l’abondance de choix. En ce sens, le design serait la clé de la voûte d’une économie des singularités telle que proposée par Lucien Karpik dans L’économie des singularités. Avec une méthodologie ethnologique, cinq projets d’évaluation de produits au sein de deux organismes produisant des dispositifs d’aide à la consommation ont été observés sur une période de deux ans. À la conclusion de cette étude, il a été démontré que certaines améliorations pouvaient être apportées aux processus d’évaluation, plus particulièrement en ce qui concerne les facteurs qui ne sont pas pris en compte dans les dispositifs d’aide à la consommation actuels, comme l’évaluation de produits centrée sur l’usager à l’aide de scénarios d’usages, plutôt que l’évaluation de produits centrée sur l’objet, ainsi que la considération de l’expérience de l’usager dans l’évaluation des biens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation d’antimicrobiens chez les animaux de consommation est une source de préoccupation importante pour la santé publique à travers le monde en raison de ses impacts potentiels sur l’émergence de micro-organismes résistants aux antimicrobiens et sur la présence de résidus antimicrobiens néfastes dans la viande. Cependant, dans les pays en développement, peu de données sont disponibles sur les pratiques d’utilisation des antimicrobiens à la ferme. Par conséquent, une étude épidémiologique transversale a été menée de juin à août 2011 dans des élevages de poulets de chair situés dans le sud du Vietnam, ayant pour objectifs de décrire la prévalence d’utilisation des antimicrobiens ajoutés à l’eau de boisson ou aux aliments à la ferme, et de tester les associations entre les caractéristiques des fermes et la non-conformité avec les périodes de retrait recommandés sur l’étiquette des produits. Un échantillon d’accommodement de 70 fermes a été sélectionné. Les propriétaires des fermes ont été interrogés en personne afin de compléter un questionnaire sur les caractéristiques des fermes et les pratiques d’utilisation d’antimicrobiens. Au cours des 6 mois précédant les entrevues, il a été rapporté que la colistine, la tylosine, l’ampicilline, l’enrofloxacine, la doxycycline, l’amoxicilline, la diavéridine et la sulfadimidine ont été utilisés au moins une fois dans les fermes échantillonnées, avec une fréquence descendante (de 75.7% à 30.0%). D’après deux scénarios de risque basés sur la comparaison de la période de retrait recommandée sur l’étiquette du produit et celle pratiquée à la ferme, de 14.3% à 44.3% des propriétaires de ferme interrogés n’ont pas respecté la période de retrait recommandée sur l’étiquette au moins une fois au cours des 6 derniers mois, et ce pour au moins un antimicrobien. Les facteurs de risque associés (p<0.05) avec une non-conformité avec la période de retrait recommandée sur l’étiquette pour au moins un des deux scénarios sont les suivants : élever des oiseaux qui n’appartiennent pas tous à des races d’origine asiatique, vacciner contre la bronchite infectieuse, avoir utilisé plus de 6 différents antimicrobiens à la ferme au cours des 6 derniers mois, et utiliser un mélange d’aliments fait maison et commerciaux. Nos résultats soulignent l’importance d’utiliser les antimicrobiens de façon judicieuse et en respectant les temps de retrait officiels, afin de protéger le consommateur contre les risques pour la santé causés par une exposition à des niveaux nocifs de résidus antimicrobiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez l’humain, différents protocoles de stimulation magnétique transcrânienne répétée (SMTr) peuvent être utilisés afin de manipuler expérimentalement la plasticité cérébrale au niveau du cortex moteur primaire (M1). Ces techniques ont permis de mieux comprendre le rôle du sommeil dans la régulation de la plasticité cérébrale. Récemment, une étude a montré que lorsqu’une première session de stimulation SMTr au niveau de M1 est suivie d’une nuit de sommeil, l’induction subséquente de la plasticité par une deuxième session SMTr est augmentée. La présente étude a investigué si ce type de métaplasticité pouvait également bénéficier d’une sieste diurne. Quatorze sujets en santé ont reçu deux sessions de intermittent theta burst stimulation (iTBS) connue pour son effet facilitateur sur l’excitabilité corticale. Les sessions de stimulation étaient séparées par une sieste de 90 minutes ou par une période équivalente d’éveil. L’excitabilité corticale était quantifiée en terme d’amplitude des potentiels évoqués moteurs (PEM) mesurés avant et après chaque session de iTBS. Les résultats montrent que la iTBS n’est pas parvenue à augmenter de manière robuste l’amplitude des PEMs lors de la première session de stimulation. Lors de la deuxième session de stimulation, la iTBS a produit des changements plastiques variables et ce peu importe si les sujets ont dormi ou pas. Les effets de la iTBS sur l’excitabilité corticale étaient marqués par une importante variabilité inter et intra-individuelle dont les possibles causes sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise propose une séquence didactique travaillant l’enchaînement de phrases par subordination et coordination en vue de favoriser le transfert de connaissances grammaticales en situation de production écrite. Nous avons d’abord fait ressortir que les élèves apprennent et revoient diverses règles de grammaire, mais qu’ils ont une grande difficulté à transférer ces connaissances en contexte d’écriture. Plusieurs chercheurs soulignent la pertinence de décloisonner l’enseignement de la grammaire et de l’écriture (Paret, 1992; Chartrand, 2003; Bilodeau, 2005) pour favoriser le transfert, notamment au moyen de la démarche active de découverte (Chartrand, 1996). Nous nous sommes intéressée à la syntaxe de la phrase, plus précisément à la construction de phrases complexes par enchaînement. Nous considérons les notions grammaticales qui en découlent difficiles pour plusieurs élèves et nous constatons que cet enseignement se fait peu fréquemment et souvent de manière magistrale, sans travailler l’écriture en parallèle. Nous avons donc élaboré une séquence didactique travaillant ces concepts grammaticaux, tout en ayant en tête de favoriser le transfert des notions grammaticales vers un contexte d’écriture. Nous avons ensuite mis à l’essai cette séquence dans un groupe de première secondaire et avons vérifié son efficacité à l’aide d’un prétest et d’un posttest (production écrite). Nous avons pu constater que la séquence didactique expérimentée dans le cadre de ce mémoire produit de bons résultats. Il y a une amélioration notable dans les enchaînements de phrases dans les textes produits par les élèves. Par contre, nous n’avons pas pu conclure que ceux-ci étaient significatifs d’un point de vue statistique. La séquence didactique semble toutefois aider les élèves, même les plus faibles, puisque les entretiens métagraphiques montrent qu’ils ont meilleure compréhension des enchaînements de phrases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus de cinquante ans, les puissances occidentales ont créé toutes sortes de réseaux militaires internationaux, afin de renforcer leurs liens et harmoniser leurs techniques, leurs équipements et leurs façons de faire. Jusqu’à ce jour, ces regroupements sont demeurés largement ignorés de la discipline des relations internationales. Or, la mondialisation des échanges et l’essor des technologies de l’information ont ouvert les processus politiques à de nouveaux acteurs, y compris en matière de sécurité, jetant un éclairage nouveau sur le rôle, la mission et les responsabilités que les États délèguent à ces réseaux. En menant une analyse approfondie d’un réseau militaire, le Multinational Interoperability Council, cette recherche a pour objectifs de définir les réseaux militaires internationaux en tant que catégorie d’analyse des relations internationales, de documenter empiriquement leur fonctionnement et de mieux comprendre leur rôle dans le champ de la sécurité internationale. Pour ce faire, la démarche propose de recourir à l’appareil conceptuel de l’institutionnalisme relationnel, de la théorie des champs et du tournant pratiques en relations internationales. Cette combinaison permet d’aborder les dimensions institutionnelle, cognitive et pratique de l’action collective au sein du réseau étudié. L’analyse nous apprend que, malgré une influence limitée, le MIC produit une identité, des capacités, des préférences et des effets qui lui sont propres. Les acteurs du MIC ont eux-mêmes généré certaines conditions de son institutionnalisation, et sont parvenus à faire du réseau, d’abord conçu comme une structure d’échanges d’informations, un acteur intentionnel du champ de la sécurité internationale. Le MIC ne peut agir de façon autonome, sans contrôle des États. Cependant, les relations établies entre les militaires qui y participent leur offrent des capacités – le capital social, politique et d’expertise – dont ils ne disposeraient pas autrement, et qu’ils peuvent mobiliser dans leurs interactions avec les autres acteurs du champ.