741 resultados para Modélisation cinétique
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches
L'impact du glissement en fréquence lors de l'accélération directe d'électrons par le faisceau laser
Resumo:
L’accélération directe d’électrons par des impulsions ultrabrèves de polarisation radiale fortement focalisées démontre un grand potentiel, notamment, pour la production de paquets d’électrons ultrabrefs. Plusieurs aspects de ce schéma d’accélération restent toutefois à être explorés pour en permettre une maîtrise approfondie. Dans le cadre du présent mémoire, on s’intéresse à l’ajout d’une dérive de fréquence au champ de l’impulsion TM01 utilisée. Les expressions exactes des composantes du champ électromagnétique de l’impulsion TM01 sont établies à partir d’une généralisation du spectre de Poisson. Il s’agit, à notre connaissance, du premier modèle analytique exact pour la description d’une impulsion avec une dérive de fréquence. Ce modèle est utilisé pour étudier l’impact du glissement en fréquence sur le schéma d’accélération, grâce à des simulations “particule test” unidimensionnelles, considérant en premier lieu une énergie constante par impulsion, puis un champ maximum constant. Les résultats révèlent que le glissement en fréquence diminue le gain en énergie maximum atteignable dans le cadre du schéma d’accélération à l’étude ; une baisse d’efficacité de plusieurs dizaines de pourcents peut survenir. De plus, les simulations mettent en évidence certaines différences reliées à l’utilisation d’impulsions avec une dérive vers les basses fréquences ou avec une dérive vers les hautes fréquences : il se trouve que, pour un glissement en fréquence de même grandeur, l’impulsion avec une dérive vers les basses fréquences conduit à un gain en énergie cinétique maximum plus élevé pour l’électron que l’impulsion avec une dérive vers les hautes fréquences.
Resumo:
Les approches visant à conceptualiser les habitudes problématiques de jeux de hasard et d’argent (JHA) à l’adolescence se distinguent sur deux aspects. Premièrement, par la nature des variables impliquées dans la conceptualisation du phénomène; la plupart des approches intègrent principalement des variables de nature individuelle dans leur modélisation alors que les variables de nature sociales sont encore peu prises en compte. Le deuxième aspect concerne la distinction entre déterminisme et interactionnisme : plusieurs approches semblent s’inscrire dans un courant déterministe et peu d’entre elles s’avèrent considérer l’individu comme un acteur social dynamique et en interaction avec son environnement. Or, il est essentiel d’examiner le sens que revêtent les comportements de JHA du point de vue des acteurs et au regard du contexte social dans lequel ils évoluent afin de mieux comprendre comment ils s’inscrivent dans leur réalité. La théorie générale de la rationalité (TGR), de Raymond Boudon, offre cette possibilité. Cette étude qualitative vise donc à comprendre les rationalités sous-jacentes aux comportements de JHA d’adolescents considérés comme manifestant des habitudes problématiques sur ce plan? Cet objectif général repose sur quatre objectifs spécifiques : 1) comprendre leurs premières expériences de JHA ainsi que leur évolution, 2) situer les expériences de JHA à l’intérieur de leur contexte (contexte social de jeu, partenaires de jeu, perception de l’entourage, etc.), 3) décrire les bénéfices et les conséquences négatives liés aux JHA et 4) décrire leur perception quant au degré de sévérité de leurs habitudes de JHA. La thèse s’appuie sur une analyse secondaire de données collectées dans le cadre d’un projet de recherche pancanadien dont l’objectif était le développement et la validation de l’Inventaire canadien des jeux de hasard et d’argent chez les adolescents (Tremblay et al., 2010). Les données utilisées portent sur l’expérience des adolescents ayant des habitudes problématiques de JHA. Elles ont été récoltées dans le cadre d’entrevues semi-structurées réalisées auprès de 31 adolescents présentant des habitudes problématiques de JHA en traitement pour leur consommation de substances psychoactives (SPA). L’analyse des propos des adolescents révèle que les bénéfices associés aux premières expériences de JHA et à leur exacerbation sont de nature matérielle, émotive et sociale. Par ailleurs, les contextes physiques et sociaux dans lesquels s’actualisent les comportements de JHA sont généralement les mêmes que ceux dans lesquelles se déroule l’usage de SPA. À cet effet, trois types de relations entre usage de SPA et habitudes de JHA ressortent du discours des adolescents: circulaire (les deux activités s’alimentent mutuellement), hiérarchique (l’une prime sur l’autre) et tripartite (les deux activités sont financées par des activités externes, souvent reliées à la délinquance). Les contextes dans lesquels s’opérationnalisent ces relations contribuent à leur renforcement, mais ont également le potentiel d’en favoriser l’affaiblissement et l’extinction. Les résultats obtenus révèlent que les comportements de JHA des adolescents s’inscrivent à l’intérieur de rationalité de nature instrumentale, cognitive et axiologique et que ces rationalités modulent leur perception du degré de sévérité de leurs habitudes de JHA. À cet effet, la théorie générale de la rationalité permet un éclairage nouveau afin de mieux comprendre comment les habitudes de JHA s’inscrivent dans la réalité des adolescents et pourquoi une proportion importante d’entre eux ne perçoit pas ces dernières comme problématiques.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Les besoins toujours croissants en terme de transfert de données numériques poussent au développement de nouvelles technologies pour accroître la capacité des réseaux, notamment en ce qui concerne les réseaux de fibre optique. Parmi ces nouvelles technologies, le multiplexage spatial permet de multiplier la capacité des liens optiques actuels. Nous nous intéressons particulièrement à une forme de multiplexage spatial utilisant le moment cinétique orbital de la lumière comme base orthogonale pour séparer un certain nombre de canaux. Nous présentons d’abord les notions d’électromagnétisme et de physique nécessaires à la compréhension des développements ultérieurs. Les équations de Maxwell sont dérivées afin d’expliquer les modes scalaires et vectoriels de la fibre optique. Nous présentons également d’autres propriétés modales, soit la coupure des modes, et les indices de groupe et de dispersion. La notion de moment cinétique orbital est ensuite introduite, avec plus particulièrement ses applications dans le domaine des télécommunications. Dans une seconde partie, nous proposons la carte modale comme un outil pour aider au design des fibres optiques à quelques modes. Nous développons la solution vectorielle des équations de coupure des modes pour les fibres en anneau, puis nous généralisons ces équations pour tous les profils de fibres à trois couches. Enfin, nous donnons quelques exemples d’application de la carte modale. Dans la troisième partie, nous présentons des designs de fibres pour la transmission des modes avec un moment cinétique orbital. Les outils développés dans la seconde partie sont utilisés pour effectuer ces designs. Un premier design de fibre, caractérisé par un centre creux, est étudié et démontré. Puis un second design, une famille de fibres avec un profil en anneau, est étudié. Des mesures d’indice effectif et d’indice de groupe sont effectuées sur ces fibres. Les outils et les fibres développés auront permis une meilleure compréhension de la transmission dans la fibre optique des modes ayant un moment cinétique orbital. Nous espérons que ces avancements aideront à développer prochainement des systèmes de communications performants utilisant le multiplexage spatial.
Resumo:
Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.
Resumo:
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
Resumo:
L’effet du climat sur la croissance de la végétation est depuis longtemps un fait acquis. Les changements climatiques globaux ont entrainé une augmentation des efforts de recherche sur l’impact de ces changements en milieux naturels, à la fois en termes de distribution et d’abondance des espèces, mais également à travers l’étude des rendements des espèces commerciales. La présente étude vise à déterminer, à travers l’utilisation de relevés dendrochronologiques, les effets de variables climatiques sur la croissance de l’épinette noire et du sapin baumier à l’échelle de la forêt boréale du Québec. Le but est d’identifier les principaux modificateurs climatiques responsables de la croissance des peuplements boréaux en fonction de leur âge et de leur localisation. Se focalisant sur un modèle non-linéaire des moindres carrés incorporant les modificateurs climatiques et un modificateur d’âge, la modélisation de la croissance en surface terrière en fonction de ces critères a permis de détecter des différences entre le sapin baumier et l’épinette noire. Les résultats montrent que les deux espèces réagissent surtout à la longueur de la saison de croissance et aux températures estivales maximales. L’épinette noire semble également plus sensible aux conditions de sécheresse. Les modèles basés sur l’âge ainsi que sur la localisation le long d’un gradient nord-sud révèlent quelques différences, notamment concernant la réaction plus prononcée des jeunes peuplements au climat, en particulier aux températures, tandis que les vieux peuplements sont sensibles au rayonnement solaire. L’étude démontre tout de même une relative indépendance de l’épinette vis-à-vis du gradient latitudinal, à l’inverse du sapin. Les résultats permettent de discuter des modifications de productivité de ces espèces liées à l’allongement de la saison de croissance (gain pour les deux essences) et aux températures croissantes en conjonction avec les précipitations (perte due à la sécheresse pour l’épinette), dans un contexte de changements climatiques.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.
Resumo:
Méthodologie:Cadre conceptuel: Principal-agent
Resumo:
Le polyhydroxybutyrate (PHB) est un biopolymère intracellulaire synthétisé par fermentation bactérienne. Il présente de nombreux avantages (propriétés thermiques et mécaniques comparables à celles de polyoléfines, haute hydrophobie, biocompatibilité, biodégradabilité, industrialisable) et de nombreux inconvénients significatifs (mauvaise stabilité thermique et fragilité). Cette mauvaise stabilité est due à un phénomène de dégradation thermique proche du point de fusion du PHB. Ceci conduit à une réduction du poids moléculaire par un procédé de scission de chaîne aléatoire, modifiant alors irréversiblement les propriétés cristallines et rhéologiques de manière. Ainsi, les températures de fusion et de cristallisation du PHB diminuent drastiquement et la cinétique de cristallisation est ralentie. Par ailleurs, un second phénomène d'autonucléation intervient à proximité du point de fusion. En effet, une certaine quantité d'énergie est nécessaire pour effacer toute présence de résidus cristallins dans la matière à l’état fondu. Ces résidus peuvent agir comme nucléides pendant le processus de cristallisation et y influencer de manière significative la cinétique de cristallisation du PHB. Ce mémoire vise à montrer l'effet des processus de dégradation thermique et d’autonucléation du PHB sur sa cinétique de cristallisation. Pour cela, trois protocoles thermiques spécifiques ont été proposés, faisant varier la température maximum de chauffe (Th) et le temps de maintien à cette température (th) afin apporter une nouvelle approche de effet du traitement thermique sur la cristallisation, l’autonucléation, la dégradation thermique et la microstructure du PHB en utilisant respectivement la calorimétrie différentielle à balayage (DSC) dans des conditions cristallisation non-isotherme et isotherme, la diffraction de rayon X (WAXD), la spectroscopie infrarouge (FT-IR) et la microscopie optique. Th a été varié entre 167 et 200 °C et th entre 3 et 10 min. À Th ≥185°C, le phénomène de scission de chaine est le seul phénomène qui influence de cinétique de cristallisation alors qu’à Th < 180°C le processus de nucléation homogène est favorisé par la présence de résidus cristallins est prédomine sur le phénomène de dégradation. En ce qui concerne l'effet du temps de maintien, th, il a été mis en évidence le phénomène de dégradation thermique est sensible à la variation de ce paramètre, ce qui n’est pas le cas du processus d’autonucléation. Finalement, il a été montré que la morphologie cristalline est fortement affectée par les mécanismes de dégradation thermique et d'auto-nucléation.
Resumo:
Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.
Resumo:
Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.