954 resultados para Évaluation des technologies
Resumo:
Travail de recherche sur le thème de l’évaluation des archives à l’ère du numérique réalisé à l’hiver 2009 dans le cadre du cours BLT6112 L’évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
Travail de recherche sur le thème de l'évaluation des archives à l'ère du numérique réalisé à l'hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
L'évaluation des écosystèmes est l'un des pivots essentiels pour l'élaboration de moyens adaptés permettant de lutter contre la diminution massive de la biodiversité. Pour la première fois, elle a fait l'objet d'une analyse à l'échelle mondiale dans le cadre de l'Evaluation des écosystèmes en début de millénaire (EM). Le rassemblement de plus d’un millier de chercheurs et de plusieurs organismes internationaux durant quatre années ont permis de dessiner la carte nécessaire à toute action efficace. L'article expose les éléments principaux de l'EM : l'évaluation des écosystèmes en tant que tels, mais surtout des services écosystémiques, dans toutes leurs dimensions, en ce que leur évolution affecte le bien-être humain. Il analyse ensuite les quatre points principaux de l'apport de l'EM, des avantages de l'utilisation croissante des services écologiques à sa non viabilité. Des scénarios, modèles et outils sont proposés pour inverser la courbe négative d'appauvrissement de la biodiversité et des services écosystémiques dans un premier bilan des retombées de l'EM.
Resumo:
Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.
Resumo:
Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
L’hémoglobine est une protéine contenue dans les globules rouges dont la principale fonction est le transport de l’oxygène. Chaque molécule d’hémoglobine est un tétramère constitué de deux paires de globines identiques de type α et β. La β-thalassémie est une maladie génétique hématopoïétique provenant de mutations du gène encodant l'hémoglobine. Ce désordre se caractérise par une diminution ou une absence totale de la synthèse de la chaîne β-globine résultant principalement en une anémie hémolytique sévère ainsi que des complications multisystémiques, telles que la splénomégalie, des déformations osseuses et une dysfonction hépatique et rénale. Actuellement, les transfusions sanguines chroniques représentent le traitement standard des patients β-thalassémiques. Cette thérapie nécessite l’administration conjointe d’un traitement chélateur de fer puisqu’elle entraîne une accumulation pathologique du fer, considéré à ce jour comme la source principale des complications cardiovasculaires de la β-thalassémie. Néanmoins, malgré le traitement efficace de la surcharge de fer transfusionnelle, l’insuffisance cardiaque demeure encore la principale cause de mortalité chez les patients atteints de β-thalassémie. Cette observation indique possiblement la présence d’un mécanisme complémentaire dans le développement de la physiopathologie cardiaque β-thalassémique. L’objectif du présent projet consistait donc à étudier les altérations cardiovasculaires de la β-thalassémie indépendamment de la surcharge de fer transfusionnelle. En utilisant un modèle murin non-transfusé de la β-thalassémie majeure, nous avons d’abord évalué in vivo, par méthode d’imagerie novatrice échographique à haute fréquence, les propriétés hémodynamiques vasculaires. Nos résultats d’index de Pourcelot ainsi que de résistance vasculaire périphérique totale ont démontré une perturbation de l’écoulement microcirculatoire chez les souris β-thalassémiques non-transfusées. Subséquemment, nous avons étudié la fonction endothéliale de régulation du tonus vasculaire de vaisseaux mésentériques isolés. Nos résultats ont révélé un dysfonctionnement de la réponse vasodilatatrice dépendante de l’endothélium chez les souris β-thalassémiques malgré une augmentation de l’expression de l’enzyme de synthèse du monoxyde d’azote ainsi qu’un remodelage de la carotide commune caractérisé par un épaississement de la paroi vasculaire. Finalement, notre étude échocardiographique de la fonction et la morphologie cardiaque a montré, chez les souris β-thalassémiques, le développement d’une hypertrophie et une dysfonction ventriculaire gauche en l’absence de transfusions sanguines chroniques ou de dépôts directs de fer dans le myocarde. L’ensemble des résultats présentés dans le cadre de cette thèse indique la présence d’une pathologie cardiovasculaire chez les souris β-thalassémiques non-transfusés. Nos travaux permettent de proposer un mécanisme de la pathophysiologie cardiovasculaire β-thalassémique, indépendant de la charge de fer transfusionnelle, impliquant les effets compensatoires d’une anémie chronique combinés à une vasculopathie complexe initiée par les érythrocytes endommagés et l’hémolyse intravasculaire.
Resumo:
Introduction : L’expansion palatine rapide assistée chirurgicalement (EPRAC) est une option de traitement privilégiée chez les patients ayant atteint la maturité squelettique et présentant une déficience transverse du maxillaire. L’effet bénéfique de l’EPRAC sur la fonction respiratoire est régulièrement mentionné, toutefois, encore peu d’études ont évalué son impact sur les voies aériennes supérieures. L’objectif de cette étude clinique prospective comparative consistait à évaluer les effets tridimensionnels de l’EPRAC sur la cavité nasale, le nasopharynx et l’oropharynx à l’aide de la tomodensitométrie. Méthodologie : L’échantillon était constitué de 14 patients (5 hommes, 9 femmes) dont l’âge moyen était de 23,0 ± 1,9 ans (16 ans 4 mois à 39 ans 7 mois). Tous ont été traités avec un appareil d’expansion de type Hyrax collé et l’expansion moyenne a été de 9,82 mm (7,5 - 12,0 mm). Tous ont eu une période de contention d’une année avant le début de tout autre traitement orthodontique. Une évaluation par tomodensitométrie volumique à faisceau conique a été réalisée aux temps T0 (initial), T1 (6 mois post-expansion) et T2 (1an post-expansion) et le volume des fosses nasales, du nasopharynx et de l’oropharynx ainsi que les dimensions de la zone de constriction maximale de l’oropharynx ont été mesurés sur les volumes tridimensionnels obtenus. Résultats : Les résultats radiologiques ont démontré une augmentation significative du volume des fosses nasales et du nasopharynx ainsi qu’une augmentation de la zone de constriction maximale de l’oropharynx à 6 mois post-expansion. Par la suite, une portion du gain enregistré pour ces trois paramètres était perdue à un an post-EPRAC sans toutefois retourner aux valeurs initiales. Aucun effet significatif sur le volume de l’oropharynx n’a été observé. De plus, aucune corrélation significative entre la quantité d’expansion réalisée et l’ensemble des données radiologiques n’a été observée. L’analyse de la corrélation intra-classe a démontré une excellente fiabilité intra-examinateur. Conclusions : L’EPRAC entraîne un changement significatif du volume de la cavité nasale et du nasopharynx. L’EPRAC ne modifie pas le volume de l’oropharynx, par contre, un effet significatif sur la zone de constriction maximale de l’oropharynx est noté. Les effets observés n’ont pas de corrélation avec le montant d’activation de la vis d’expansion.
Resumo:
Cette étude vise à évaluer les éléments facilitants et les barrières à l’implantation du programme d’éducation à la nutrition Camille, Antoine et l’archipel Ôlait, développé par les Producteurs laitiers du Canada (PLC), auprès d’enseignants du préscolaire provenant de six régions du Québec et ayant reçu un atelier de formation animé par une diététiste des PLC. Elle vise également à connaître le degré d’implantation et la fidélité du programme ainsi que son appréciation, son utilisation et sa pertinence. Après une moyenne de 5 mois d’implantation, un questionnaire auto-administré a été complété par 37 enseignants (N = 86, 43 %), dont 10 utilisateurs (27 %) et 27 non-utilisateurs (73 %). Puis, des groupes de discussion ont eu lieu avec 13 enseignants (N = 170, 8 %). En moyenne, 11,4 activités sur 30 ont été réalisées (38 %), dont 6,3 telles quelles (55 %) et 5,1 modifiées (45 %), et les enseignants ont rapporté avoir l’intention de refaire 6,1 activités (54 %). L’implantation du programme a été facilitée ou limitée par différentes caractéristiques des enseignants, par l’appréciation de son contenu et son format, par sa pertinence concernant les exigences pédagogiques au préscolaire, la réalité des élèves et des parents et les objectifs d’apprentissages en nutrition, par le milieu scolaire, familial et communautaire ainsi que par la crédibilité et le support des PLC. Plusieurs de ces facteurs sont à la fois des éléments facilitants et des barrières. Les résultats obtenus aideront à ajuster ce programme et guider le développement et l’évaluation de programmes similaires.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
Travail réalisé à l’EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 – Politique de gestion des archives, à l'automne 2010.
Resumo:
L’administration de fer dextran à 10 mg/kg intramusculaire (IM) est un traitement empirique couramment recommandé en médecine aviaire lors d’hémorragie ou d’anémie. L’objectif principal de cette étude était d’évaluer les effets de ce traitement sur l’anémie chez les oiseaux de proie. Deux types d’individus ont été utilisés : des crécerelles d’Amérique (Falco sparverius) où une anémie par perte de sang externe aiguë a été créée (deux phlébotomies de 20-40 % du volume sanguin total à un intervalle de 6 h) et des oiseaux de proie sauvages de différentes espèces souffrant d’anémies diverses. L’ensemble des oiseaux a été subdivisé aléatoirement en groupe traitement (fer dextran 10 mg/kg IM) et contrôle (NaCl 0,9% IM). Un suivi dans le temps a été réalisé afin d’étudier leur récupération de l’anémie, la présence d’effets secondaires au traitement et l’impact d’une administration de fer sur ces réserves. Aucune différence significative n’a été observée entre les deux groupes en ce qui concerne les signes cliniques, l’hématocrite, le pourcentage des polychromatophiles/réticulocytes, la densité cellulaire et le fer de la moelle osseuse, la créatine kinase et le fer plasmatique. La majorité des crécerelles ont présenté une myosite au site d’injection du fer. Nos résultats suggèrent qu’une administration de 10 mg/kg de fer dextran IM n’a pas d’effet sur l’érythropoïèse des rapaces souffrant d’anémie par perte de sang externe aiguë, qu’elle provoque une légère inflammation au site d’injection et qu’elle n’influence pas les réserves de fer. Le comptage des réticulocytes en anneau et des polychromatophiles semble être deux méthodes équivalentes.
Resumo:
À l’image des théories de la bande dessinée imprimée, la BD numérique est elle aussi accaparée par les analyses formalistes, dont la plus connue, celle de Scott McCloud, est critiquable, car elle réduit le média à un langage. Or, les mutations provoquées par la remédiation numérique ne sont pas uniquement formelles : l’expérience du lecteur, de l’auteur, et le rapport qu’ils entretiennent ensemble sont modifiés. Ce nouveau rapport influence le contenu des œuvres : on ne raconte pas la même chose dans le livre que sur Internet. L’autobiographie en BD, courant qui a explosé dans l’édition indépendante des années 1990, puis a été largement repris par les blogueurs, permet d’observer les différences de contenus et d’approches véhiculées par le livre et le numérique. Le dispositif du blogue propose un outil de liberté d’expression et de réflexion, mais les paramètres de son exécution (immédiateté, interactivité, désir de popularité, etc.) peuvent détourner cet objectif. Ainsi, beaucoup d’auteurs de blogues n’ont pas produit une autobiographie singulière, mais ont reproduit un courant de pensée existant (en exposant une libido fortement orientée vers la consommation) ainsi qu’un genre codifié, au sein duquel les autobiographies deviennent uniformes. Pour qualifier leurs blogues, on ne peut pas vraiment parler d’autobiographies, car ils ne mettent pas en scène un passé rétrospectif. Il s’agirait davantage de journaux intimes dont l’intimité est communiquée (ou publicisée) plutôt qu’expérimentée. Ce à quoi ces blogues ressemblent finalement le plus, c’est à une sorte de télé-réalité, une « bédé-réalité ».