106 resultados para Nombres réels récursifs
Resumo:
Un résumé en anglais est également disponible.
Resumo:
Document de travail
Resumo:
La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.
Resumo:
L’observance, qui décrit à quel degré le patient suit la prescription, est un facteur essentiel pour que le traitement réussisse. Les observances des patients varient beaucoup et l’efficacité du médicament varie parallèlement. Par conséquent, il faut avoir des paramètres sensibles et fiables pour mesurer l’observance. Dans la littérature, on trouve beaucoup de paramètres pour évaluer l’observance mais leurs avantages, limites et inconvénients, en ce qui concerne l’évaluation de l’impact de l’observance sur les effets des médicaments n’ont pas encore été étudiés en profondeur. L’évaluation de ces paramètres nécessite de les tester dans différentes situations. Comme les données disponibles sur l’observance ne concernent pas un ensemble exhaustif de situations, le recours à la simulation, en s’inspirant des cas réels ou plausibles, est très pertinent. On a ainsi réussi à développer un modèle dont les paramètres sont simples et compréhensibles et qui est pratique et flexible pour simuler les différents cas et même les cas extrêmes de l’observance. On a proposé de nouveaux paramètres pour mesurer l’impact biopharmaceutique de l’observance. Ensuite, on a comparé la performance, en termes de sensibilité et la fiabilité, des paramètres proposés et celles de paramètres déjà utilisés. En conclusion, on peut souligner qu’il n’y a pas de paramètre parfait étant donné que chacun a ses propres limites. Par exemple, pour les médicaments dont les effets sont directement liés aux leurs concentrations plasmatiques, le pourcentage des doses prises, qui est le paramètre le plus utilisé, offre la pire performance; par contre, le pourcentage des doses correctes nettes qui est un nouveau paramètre possède une bonne performance et des avantages prometteurs.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Libre de Berlin, Institut für Deutsche und Niederländische Philologie
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
Contexte. Les phénotypes ABO et Rh(D) des donneurs de sang ainsi que des patients transfusés sont analysés de façon routinière pour assurer une complète compatibilité. Ces analyses sont accomplies par agglutination suite à une réaction anticorps-antigènes. Cependant, pour des questions de coûts et de temps d’analyses faramineux, les dons de sang ne sont pas testés sur une base routinière pour les antigènes mineurs du sang. Cette lacune peut résulter à une allo-immunisation des patients receveurs contre un ou plusieurs antigènes mineurs et ainsi amener des sévères complications pour de futures transfusions. Plan d’étude et Méthodes. Pour ainsi aborder le problème, nous avons produit un panel génétique basé sur la technologie « GenomeLab _SNPstream» de Beckman Coulter, dans l’optique d’analyser simultanément 22 antigènes mineurs du sang. La source d’ADN provient des globules blancs des patients préalablement isolés sur papiers FTA. Résultats. Les résultats démontrent que le taux de discordance des génotypes, mesuré par la corrélation des résultats de génotypage venant des deux directions de l’ADN, ainsi que le taux d’échec de génotypage sont très bas (0,1%). Également, la corrélation entre les résultats de phénotypes prédit par génotypage et les phénotypes réels obtenus par sérologie des globules rouges et plaquettes sanguines, varient entre 97% et 100%. Les erreurs expérimentales ou encore de traitement des bases de données ainsi que de rares polymorphismes influençant la conformation des antigènes, pourraient expliquer les différences de résultats. Cependant, compte tenu du fait que les résultats de phénotypages obtenus par génotypes seront toujours co-vérifiés avant toute transfusion sanguine par les technologies standards approuvés par les instances gouvernementales, les taux de corrélation obtenus sont de loin supérieurs aux critères de succès attendus pour le projet. Conclusion. Le profilage génétique des antigènes mineurs du sang permettra de créer une banque informatique centralisée des phénotypes des donneurs, permettant ainsi aux banques de sang de rapidement retrouver les profiles compatibles entre les donneurs et les receveurs.
Resumo:
L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).
Resumo:
La zeitgesit contemporaine sur la reconnaissance des visages suggère que le processus de reconnaissance reposerait essentiellement sur le traitement des distances entre les attributs internes du visage. Il est toutefois surprenant de noter que cette hypothèse n’a jamais été évaluée directement dans la littérature. Pour ce faire, 515 photographies de visages ont été annotées afin d’évaluer l’information véhiculée par de telles distances. Les résultats obtenus suggèrent que les études précédentes ayant utilisé des modifications de ces distances ont présenté 4 fois plus d’informations que les distances inter-attributs du monde réel. De plus, il semblerait que les observateurs humains utilisent difficilement les distances inter-attributs issues de visages réels pour reconnaître leurs semblables à plusieurs distances de visionnement (pourcentage correct maximal de 65%). Qui plus est, la performance des observateurs est presque parfaitement restaurée lorsque l’information des distances inter-attributs n’est pas utilisable mais que les observateurs peuvent utiliser les autres sources d’information de visages réels. Nous concluons que des indices faciaux autre que les distances inter-attributs tel que la forme des attributs et les propriétés de la peau véhiculent l’information utilisée par le système visuel pour opérer la reconnaissance des visages.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
La Loi modifiant le Code civil et d'autres dispositions législatives relativement à la publicité des droits personnels et réels mobiliers et à la constitution d'hypothèques mobilières sans dépossession, L.Q. 1998, ch. 5 a assujetti à la publicité pour fins d'opposabilité aux tiers la fiducie à titre onéreux constituée pour garantir l'exécution d'une obligation, les droits du crédit-bailleur et, dans certains cas, les droits des vendeurs à tempérament et avec faculté de rachat et du locateur à long terme. L'interprétation de certaines de ces dispositions législatives a suscité une vive controverse jurisprudentielle portant sur la requalification des contrats et l'effet de la publicité dans le contexte où le vendeur à tempérament et le locateur à long terme ont fait défaut de publier leurs droits en temps utile et avant la faillite de leur débiteur. Le présent mémoire étudie cette problématique en procédant à l'analyse des jugements pertinents, et plus particulièrement des arrêts de la Cour suprême dans Lefebvre (Syndic de); Tremblay (Syndic de), [2004] 3 R.C.S. 326 et Ouellet (Syndic de), [2004] 3 R.C.S. 348. Également, ce mémoire traite de l'amendement apporté par le législateur à la définition de « créancier garanti» de la Loi sur la faillite et l'insolvabilité, qui a tenté, sans succès, d'harmoniser cette notion avec celle du Code civil. Ainsi, il sera démontré que la situation juridique des contrats conclus à des fins de garantie s'est complexifiée au fil des ans.
Resumo:
Résumé La présente thèse doctorale vise à déterminer sous quelles conditions la garde non-maternelle est associée (positivement/négativement) au niveau de stress et au développement cognitif des enfants. Elle comporte une recension des écrits et trois articles empiriques. Le premier article présente une recension des écrits (de type méta-analytique) qui synthétise les études portant sur le stress des enfants en services de garde et ayant utilisé le niveau de cortisol comme indicateur. Les résultats montrent que la garde non-maternelle est associée au niveau de stress des enfants, se reflétant dans des concentrations de cortisol élevées. Les niveaux de stress élevés s’observent particulièrement chez les enfants qui au départ ont tendance à être retirés, anxieux ou qui sont gardés dans un milieu de faible qualité. Cependant, certains éléments indiquent que les élévations de cortisol à la garderie sont temporaires et qu’elles disparaissent au fur et à mesure que l’enfant s’adapte à son milieu. Le deuxième article de thèse, réalisé dans le contexte de l’Échantillon longitudinal national des enfants et des jeunes [ELNEJ] (n = 3093), vise à déterminer dans quelle mesure l’association entre la fréquentation des services de garde et l’acquisition du vocabulaire réceptif au préscolaire dépend du milieu familial de l’enfant. Les résultats indiquent qu’à l’intérieur du groupe d’enfants défavorisés, ceux ayant été gardés à temps plein dans la première année de vie obtiennent des scores supérieurs sur une mesure de vocabulaire réceptif administrée à 4 ½ ans, comparativement aux enfants restés à la maison avec la mère (d=0.58). Le troisième article, réalisé dans le contexte de l’Étude longitudinale des enfants du Québec [ELDEQ]; (n=2,120), vise à documenter les bénéfices à long terme de la fréquentation des services de garde par les enfants issus de milieux désavantagés sur la préparation scolaire et les compétences académiques. Les résultats révèlent que les enfants dont la mère n’a pas terminé ses études secondaires obtiennent de meilleurs résultats sur une mesure de préparation scolaire cognitive (d=0.56) et de vocabulaire réceptif (d=0.30) en maternelle, et de connaissance des nombres (d=0.43) en première année, s’ils ont fréquenté un service de garde sur une base régulière. Par ailleurs, la garde non-parentale n’est pas associée aux compétences cognitives des enfants de milieux sociaux favorisés. L’objectif du quatrième article est d’examiner les facteurs de sélection quant à l’utilisation des services de garde dans le contexte de l’ELDEQ. Les résultats montrent que l’absence d’emploi de la mère pendant la grossesse, le faible niveau d’éducation de la mère; le revenu insuffisant de la famille, avoir plus de 2 frères et sœurs, la surprotection maternelle, et le faible niveau de stimulation cognitive sont associés à une faible utilisation des services de garde (30.7% de l’échantillon québécois). En d’autres termes, les enfants qui sont les plus susceptibles de retirer des avantages des services de garde sur le plan du développement, en raison de la présence de facteurs de risque dans leur milieu familial, sont aussi ceux qui utilisent le moins les services de garde.
Resumo:
Mycoplasma hyopneumoniae est l’agent causal de la pneumonie enzootique. On le retrouve dans plusieurs élevages de porcs à travers le monde. Même si ce micro-organisme est présent dans plusieurs troupeaux canadiens, peu d’informations sont présentement disponibles sur les isolats québécois. Un total de 160 poumons de porcs possédant des lésions de pneumonie ont été récupérés à l’abattoir, mis en culture et testés par PCR pour M. hyopneumoniae et Mycoplasma hyorhinis. D’autres pathogènes bactériens communs du porc et les virus du syndrome reproducteur et respiratoire porcin (VSRRP), de l’influenza et le circovirus porcin de type 2 (CVP2) ont été également testés. Quatre-vingt-dix pourcent des échantillons étaient positifs pour M. hyopneumoniae et 5.6% l’étaient seulement pour M. hyorhinis. Dans ces échantillons positifs pour M. hyopneumoniae, la concentration de ce mycoplasme variait de 1.17 x 105 à 3.37 x 109 génomes/mL. Vingt-cinq poumons positifs en culture ou par PCR en temps réel pour M. hyopneumoniae ont été sélectionnés, parmi ceux-ci 10 étaient en coinfection avec Pasteurella multocida, 12 avec Streptococcus suis, 9 avec CVP2 et 2 avec le VSRRP. Les analyses des nombres variables de répétitions en tandem à de multiples loci (MLVA) et PCR-polymorphisme de longueur de fragments de restriction (PCR-RFLP) de M. hyopneumoniae ont démontré une forte diversité des isolats de terrain. Par contre, il semble y avoir plus d’homogénéité à l’intérieur d’un même élevage. L’analyse MLVA a également démontré que près de la moitié des isolats possédaient moins de 55% d’homologie avec les souches vaccinales et de référence utilisées dans la présente étude. L’absence d’amplification du locus 1 de M. hyopneumoniae en MLVA a été significativement associée à une baisse de la concentration de bactérie et de la sévérité des lésions. Pour tous les isolats de M. hyopneumoniae, des concentrations minimales inhibitrices (CMI) de faibles à intermédiaires ont été obtenues envers tous les antimicrobiens testés. Les isolats possédant des CMI intermédiaires envers les tétracyclines, les macrolides et les lincosamides ont été testés pour la présence des gènes de résistance tetM, ermB et pour des mutations ponctuelles dans les gènes des protéines L4, L22 et de l’ARNr 23S. Aucun de ces gènes n’a été détecté mais la mutation ponctuelle G2057A a été identifiée. Cette mutation est responsable de la résistance intrinsèque de M. hyopneumoniae face aux macrolides à 14 carbones. Ces résultats indiquent qu’il ne semble pas y avoir de résistance acquise aux antimicrobiens parmi ces isolats. En conclusion, cette recherche a permis d’obtenir de nouvelles données scientifiques sur les isolats québécois de M. hyopneumoniae.
Resumo:
La fertilisation phosphatée est très répandue dans les pratiques agricoles Nord-Américaines. Bien que généralement très efficace pour augmenter la production végétale, son utilisation peut engendrer certaines contaminations environnementales. Afin de diminuer ce problème, plusieurs pratiques de gestion sont envisagées. Parmi celles-ci, on retrouve l’intéressante possibilité de manipuler la flore microbienne car cette dernière est reconnue pour son implication dans bons nombres de processus fondamentaux liés à la fertilité du sol. Cette étude a démontré que lors d’essais en champs, la forme de fertilisant ajouté au sol ainsi que la dose de phosphore (P) appliquée avaient un impact sur la distribution des microorganismes dans les différentes parcelles. Une première expérience menée sur une culture de luzerne en prairie semi-aride a montré que les échantillons provenant de parcelles ayant reçu différentes doses de P présentaient des différences significatives dans leurs communautés bactériennes et fongiques. La communauté de CMA est restée similaire entre les différents traitements. Une deuxième expérience fut menée pendant trois saisons consécutives afin de déterminer l’effet de différentes formes de fertilisation organiques et minérale ajustées selon une dose unique de P sur les populations bactériennes et fongiques d’une culture intensive de maïs en rotation avec du soja. Les résultats des analyses ont montrés que les populations varient selon le type de fertilisation reçu et que les changements sont indépendants du type de végétaux cultivé. Par contre, les populations microbiennes subissent une variation plus marquée au cours de la saison de culture. La technique de DGGE a permis d’observer les changements frappant la diversité microbienne du sol mais n’a permis d’identifier qu’une faible proportion des organismes en cause. Parallèlement à cette deuxième étude, une seconde expérience au même site fut menée sur la communauté de champignons mycorhiziens à arbuscules (CMA) puisqu’il s’agit d’organismes vivant en symbiose mutualiste avec la majorité des plantes et favorisant la nutrition de même que l’augmentation de la résistance aux stress de l’hôte. Ceci permit d’identifier et de comparer les différents CMA présents dans des échantillons de sol et de racines de maïs et soja. Contrairement aux bactéries et aux champignons en général, les CMA présentaient une diversité très stable lors des différents traitements. Par contre, au cours des trois années expérimentales, il a été noté que certains ribotypes étaient significativement plus liés au sol ou aux racines. Finalement, l’ensemble de l’étude a démontré que la fertilisation phosphatée affecte la structure des communautés microbiennes du sol dans les systèmes évalués. Cependant, lors de chaque expérience, la date d’échantillonnage jouait également un rôle prépondérant sur la distribution des organismes. Plusieurs paramètres du sol furent aussi mesurés et ils présentaient aussi une variation au cours de la saison. L’ensemble des interactions possibles entre ces différents paramètres qui, dans certains cas, variaient selon le traitement appliqué, aurait alors probablement plus d’impact sur la biodiversité microbienne que la seule fertilisation.