963 resultados para Modèle dynamique de la rechute
Resumo:
Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.
Resumo:
La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.
Resumo:
La majorité des situations dans lesquelles l'enfant fait ses apprentissages requièrent l'activité de lecture. Au-delà, des mots, au-delà de la simple perception physique du langage, Smith (1977) décrit la structure profonde du langage comme la signification que le lecteur donne à un texte, en plus du sens propre du texte lui-même. Pour le lecteur, le sens d'un texte comprend l'information qu'il en extrait, en plus de certaines informations qu'il en infère. En d'autres mots, le sens correspond aux réponses que le lecteur obtient à ses questions cognitives. En conséquence, la structure profonde de la langue se présente réellement comme le processus par lequel le discours est produit et compris. Elle se trouve à la fois dans la tête de l'individu et dans le texte; elle fait partie de la théorie du monde du lecteur. […]La présente recherche s'inscrit dans le modèle constructiviste de la compréhension en lecture. Son objectif propre est de donner des indices sur le développement des habiletés en compréhension chez des élèves de deuxième et quatrième années de l'école primaire. Peu de recherches s'y sont intéressées. On utilisera un protocole de recherche de type factoriel 2*2*2*2 (2 types de structures de textes * 2 niveaux de complexité des textes * 2 niveaux scolaires * 2 ordres de présentation des textes).
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
En 2003, le gouvernement brésilien (gestion Lula) a initié une nouvelle phase dans son histoire de l habitation, en intensifiant les constructions de logements sociaux au Brésil. Un tel accroissement a eut des répercussions tant en ville comme à la campagne, et fût marqué dans le Rio Grande do Norte, par la production a grande échelle d ensembles d habitations, dans les programmes de Gouvernement. Afin de viabiliser ces transformations, des instruments politiques, financiers et de gestion ont étés articulés conjointement, utilisant la répétition d une typologie d édification, comme modèle, accompagnée de la reproduction d une morphologie dans les constructions de logements sociaux. Afin de comprendre ce processus nous introduisons une recherche urbanistique et socio-économique du problème du logement social au Brésil, en cherchant à mettre en relation les aspects techniques avec les questions historique, professionnelles et culturelles, éléments complémentaires. Notre analyse cherche a identifier comment les politiques de gestion et financement officielles (administrées dans sa grande majorité par la Caisse Économique Fédérale -CEF-), influencent le processus de conception de projets, en provoquant les répétitions de type/morphologiques, déjà citées. Basée sur l observation directe au cour de deux expériences différenciées pour du logement social en milieu rural, au Rio Grande do Norte, nous montrerons aussi certaines limitations et possibilités des acteurs sociaux, face aux agents et politiques officielles pour le logement social au Brésil, proposant des solutions alternatives standardisées qui caractérisent le résultat des projets financées et gérés par la CEF. Nos principales références théoriques et méthodologiques sont Nabil Bonduki (1998), David Harvey (2009,1982), Henry Lefèbvre (1970), Ermínia Maricato (2010, 2009, 2000, 1987) et Raquel Rolnik (2010, 2009, 2008, 1997)
Resumo:
Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.
Resumo:
Les antimoniures sont des semi-conducteurs III-V prometteurs pour le développement de dispositifs optoélectroniques puisqu'ils ont une grande mobilité d'électrons, une large gamme spectrale d'émission ou de détection et offrent la possibilité de former des hétérostructures confinées dont la recombinaison est de type I, II ou III. Bien qu'il existe plusieurs publications sur la fabrication de dispositifs utilisant un alliage d'In(x)Ga(1-x)As(y)Sb(1-y) qui émet ou détecte à une certaine longueur d'onde, les détails, à savoir comment sont déterminés les compositions et surtout les alignements de bande, sont rarement explicites. Très peu d'études fondamentales sur l'incorporation d'indium et d'arsenic sous forme de tétramères lors de l'épitaxie par jets moléculaires existent, et les méthodes afin de déterminer l'alignement des bandes des binaires qui composent ces alliages donnent des résultats variables. Un modèle a été construit et a permis de prédire l'alignement des bandes énergétiques des alliages d'In(x)Ga(1-x)As(y)Sb(1-y) avec celles du GaSb pour l'ensemble des compositions possibles. Ce modèle tient compte des effets thermiques, des contraintes élastiques et peut aussi inclure le confinement pour des puits quantiques. De cette manière, il est possible de prédire la transition de type de recombinaison en fonction de la composition. Il est aussi montré que l'indium ségrègue en surface lors de la croissance par épitaxie par jets moléculaires d'In(x)Ga(1-x)Sb sur GaSb, ce qui avait déjà été observé pour ce type de matériau. Il est possible d'éliminer le gradient de composition à cette interface en mouillant la surface d'indium avant la croissance de l'alliage. L'épaisseur d'indium en surface dépend de la température et peut être évaluée par un modèle simple simulant la ségrégation. Dans le cas d'un puits quantique, il y aura une seconde interface GaSb sur In(x)Ga(1-x)Sb où l'indium de surface ira s'incorporer. La croissance de quelques monocouches de GaSb à basse température immédiatement après la croissance de l'alliage permet d'incorporer rapidement ces atomes d'indium et de garder la seconde interface abrupte. Lorsque la composition d'indium ne change plus dans la couche, cette composition correspond au rapport de flux d'atomes d'indium sur celui des éléments III. L'arsenic, dont la source fournit principalement des tétramères, ne s'incorpore pas de la même manière. Les tétramères occupent deux sites en surface et doivent interagir par paire afin de créer des dimères d'arsenic. Ces derniers pourront alors être incorporés dans l'alliage. Un modèle de cinétique de surface a été élaboré afin de rendre compte de la diminution d'incorporation d'arsenic en augmentant le rapport V/III pour une composition nominale d'arsenic fixe dans l'In(x)Ga(1-x)As(y)Sb(1-y). Ce résultat s'explique par le fait que les réactions de deuxième ordre dans la décomposition des tétramères d'arsenic ralentissent considérablement la réaction d'incorporation et permettent à l'antimoine d'occuper majoritairement la surface. Cette observation montre qu'il est préférable d'utiliser une source de dimères d'arsenic, plutôt que de tétramères, afin de mieux contrôler la composition d'arsenic dans la couche. Des puits quantiques d'In(x)Ga(1-x)As(y)Sb(1-y) sur GaSb ont été fabriqués et caractérisés optiquement afin d'observer le passage de recombinaison de type I à type II. Cependant, celui-ci n'a pas pu être observé puisque les spectres étaient dominés par un niveau énergétique dans le GaSb dont la source n'a pu être identifiée. Un problème dans la source de gallium pourrait être à l'origine de ce défaut et la résolution de ce problème est essentielle à la continuité de ces travaux.
Resumo:
Le développement de la multirésistance chez Escherichia coli est un problème important en médecine animale et humaine. En outre, l’émergence et la diffusion des déterminants de résistance aux céphalosporines à larges spectres de troisième génération (ESCs) parmi les isolats, incluant des céphalosporines essentielles en médecine humaine (ex. ceftriaxone et ceftiofur), est un problème majeur de santé publique. Cette thèse visait trois objectifs. D’abord étudier la dynamique de la résistance aux antimicrobiens (AMR) ainsi que la virulence et les profils génétiques de la AMR des E. coli isolées de porcs recevant une nourriture post-sevrage supplémentée avec de la chlortétracycline et de la pénicilline G, et, accessoirement, évaluer les effets d'additifs alimentaires sur cette dynamique en prenant pour exemple d'étude un minéral argileux, la clinoptilolite, étant donné son possible lien avec le gène blaCMY-2 qui confère la résistance au ceftiofur. L'objectif suivant était d'investiguer les mécanismes menant à une augmentation de la prévalence du gène blaCMY-2 chez les porcs qui reçoivent de la nourriture médicamentée et qui n'ont pas été exposés au ceftiofur Ici encore,nous avons examiné les effets d’un supplément alimentaire avec un minéral argileux sur ce phénomène. Enfin, notre dernier objectif était d’étudier, dans le temps, les génotypes des isolats cliniques d'E. coli résistant au ceftiofur, isolés de porcs malades au Québec à partir du moment où la résistance au ceftiofur a été rapportée, soit de 1997 jusqu'à 2012. Dans l'étude initiale, la prévalence de la résistance à 10 agents antimicrobiens, incluant le ceftiofur, s’accroît avec le temps chez les E.coli isolées de porcelets sevrés. Une augmentation tardive de la fréquence du gène blaCMY-2, encodant pour la résistance au ceftiofur, et la présence des gènes de virulence iucD et tsh a été observée chez les isolats. La nourriture supplémentée avec de la clinoptilolite a été associée à une augmentation rapide mais, par la suite, à une diminution de la fréquence des gènes blaCMY-2 dans les isolats. En parallèle, une augmentation tardive dans la fréquence des gènes blaCMY-2 et des gènes de virulence iucD et tsh a été observée dans les isolats des porcs contrôles, étant significativement plus élevé que dans les porcs ayant reçu l'additif au jour 28. La diversité, au sein des E. coli positives pour blaCMY-2 , a été observée au regard des profils AMR. Certaines lignées clonales d'E.coli sont devenues prédominantes avec le temps. La lignée clonale du phylotype A prédominait dans le groupe supplémenté, alors que les lignées clonales du phylotype B1, qui possèdent souvent le gène de virulence iucD associé aux ExPEC, prédominaient dans le groupe contrôle. Les plasmides d'incompatibilité (Inc) des groupes, I1, A/C, et ColE, porteurs de blaCMY-2, ont été observés dans les transformants. Parmi les souches cliniques d'E.coli ESC-résistantes, isolées de porcs malades au Québec de 1997 à 2012, blaCMY-2 était le gène codant pour une β-lactamase le plus fréquemment détecté; suivi par blaTEM et blaCTX-M,. De plus, les analyses clonales montrent une grande diversité génétique. Par contre, des isolats d'E. coli avec des profils PFGE identiques ont été retrouvés dans de multiples fermes la même année mais aussi dans des années différentes. La résistance à la gentamicine, kanamycine, chloramphenicol, et la fréquence de blaTEM et de IncA/C diminuent significativement au cour de la période étudiée, alors que la fréquence de IncI1 et de la multirésistance à sept catégories d'agents antimicrobiens augmente significativement avec le temps. L'émergence d'isolats d'E. coli positifs pour blaCTX-M, une β-lactamase à large spectre et produisant des ESBL, a été observée en 2011 et 2012 à partir de lignées clonales distinctes et chez de nombreuses fermes. Ces résultats, mis ensemble, apportent des précisions sur la dissémination de la résistance au ceftiofur dans les E. coli isolées de porcs. Au sein des échantillons prélevés chez les porcs sevrés recevant l'alimentation médicamentée sur une ferme, et pour laquelle une augmentation de la résistance au ceftiofur a été observée, les données révèlent que les souches d'E. coli positives pour blaCMY-2 et résistantes aux ESCs appartenaient à plusieurs lignées clonales différentes arborant divers profils AMR. Le gène blaCMY-2 se répand à la fois horizontalement et clonalement chez ces E. coli. L'ajout de clinoptilotite à la nourriture et le temps après le sevrage influencent la clonalité et la prévalence du gène blaCMY-2 dans les E. coli. Durant les 16 années d'étude, plusieurs lignées clonales différentes ont été observées parmi les souches d'E. coli résistantes au ceftiofur isolées de porc malades de fermes québécoises, bien qu’aucune lignée n'était persistante ou prédominante pendant l'étude. Les résultats suggèrent aussi que le gène blaCMY-2 s'est répandu à la fois horizontalement et clonalement au sein des fermes. De plus, blaCMY-2 est le gène majeur des β-lactamases chez ces isolats. À partir de 2011, nous rapportons l'émergence du gène blaCTX-M dans des lignées génétiques distinctes.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.
Resumo:
En 2003, le gouvernement brésilien (gestion Lula) a initié une nouvelle phase dans son histoire de l habitation, en intensifiant les constructions de logements sociaux au Brésil. Un tel accroissement a eut des répercussions tant en ville comme à la campagne, et fût marqué dans le Rio Grande do Norte, par la production a grande échelle d ensembles d habitations, dans les programmes de Gouvernement. Afin de viabiliser ces transformations, des instruments politiques, financiers et de gestion ont étés articulés conjointement, utilisant la répétition d une typologie d édification, comme modèle, accompagnée de la reproduction d une morphologie dans les constructions de logements sociaux. Afin de comprendre ce processus nous introduisons une recherche urbanistique et socio-économique du problème du logement social au Brésil, en cherchant à mettre en relation les aspects techniques avec les questions historique, professionnelles et culturelles, éléments complémentaires. Notre analyse cherche a identifier comment les politiques de gestion et financement officielles (administrées dans sa grande majorité par la Caisse Économique Fédérale -CEF-), influencent le processus de conception de projets, en provoquant les répétitions de type/morphologiques, déjà citées. Basée sur l observation directe au cour de deux expériences différenciées pour du logement social en milieu rural, au Rio Grande do Norte, nous montrerons aussi certaines limitations et possibilités des acteurs sociaux, face aux agents et politiques officielles pour le logement social au Brésil, proposant des solutions alternatives standardisées qui caractérisent le résultat des projets financées et gérés par la CEF. Nos principales références théoriques et méthodologiques sont Nabil Bonduki (1998), David Harvey (2009,1982), Henry Lefèbvre (1970), Ermínia Maricato (2010, 2009, 2000, 1987) et Raquel Rolnik (2010, 2009, 2008, 1997)
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Dans son milieu familial, le jeune enfant développe ses habiletés langagières en plus de s’initier à la lecture et à l’écriture. Ce chapitre se divise en deux sections. Dans la première, nous décrivons un ensemble d’études qui convergent vers un modèle théorique de la littératie familiale et de son lien avec le développement du langage et de la lecture. Ce modèle, proposé par Sénéchal et ses collègues, suggère une association robuste entre lecture partagée et langage oral, d’une part, et entre enseignement parental et habiletés de littératie, d’autre part. Dans la deuxième section du chapitre, nous montrons, en résumant des études corrélationnelles et quasi-expérimentales, comment l’entrée de l’enfant dans le monde de la lecture peut être facilitée par ses premières tentatives, même non conventionnelles, d’écriture de mots. Dans chacune des deux sections, nous nous intéressons aux trajectoires d’apprentissage allant d’habiletés émergentes à la compétence en lecture.