19 resultados para Modèle général de la fictivité

em Université de Montréal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le syndrome de Leigh version canadienne-française (LSFC) est une maladie autosomale récessive causée par une mutation du gène LRPPRC, encodant une protéine du même nom. LRPPRC est impliquée dans la traduction des gènes mitochondriaux qui encodent certains complexes de la chaine respiratoire. Les répercussions biochimiques incluent un déficit tissu spécifique de la cytochrome c oxydase (COX), principalement dans le foie et le cerveau, et la survenue de crises d’acidose fatales chez 80 % des enfants atteints avant l’âge de 3-4 ans. L’identification d’options thérapeutiques demeure encore un défi de taille et ceci est en partie relié au manque de connaissances des fonctions biologiques de LRPPRC et des mécanismes impliqués dans la pathogenèse du LSFC, au niveau des dysfonctions mitochondriales résultantes. Afin d’étudier ces mécanismes, le consortium de l’acidose lactique, dont fait partie notre laboratoire, a récemment développé un modèle murin portant une ablation de LRPPRC spécifique au foie (souris H-Lrpprc-/-). L’objectif principal est de déterminer si ce modèle reproduit le phénotype pathologique observé dans les cultures de fibroblastes humains issus de biopsies de peau de patients LSFC. Dans le cadre des travaux de ce mémoire, nous avons amorcé la caractérisation de ce nouveau modèle, en examinant le phénotype général, l’histopathologie hépatique et les fonctions mitochondriales, et en nous focalisant principalement sur les fonctions respiratoires et la capacité à oxyder divers types de substrats. Nous avons observé un retard de croissance, une hépatomégalie ainsi que plusieurs anomalies histologiques du foie chez la souris HLrpprc-/-. De plus, l’ablation de LRPPRC induit un déficit du complexe IV, mais aussi de l’ATP synthase, et affecte l’oxydation des acides gras à longues chaines. À la lumière de ces résultats, nous croyons que le modèle murin H-Lrpprc-/- contribuera à l’avancement des connaissances générales sur LRPPRC, nous permettant de mieux comprendre l’influence de la protéine sur les fonctions mitochondriales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un certain nombre de chercheurs (Birch, 1996; Cole, 1995, 1996; De Bergerac, 1998) fondent sur un modèle neurophysiologique leurs arguments en faveur de la delphinothérapie pour traiter divers désordres (DSM-IV) cognitifs et émotifs chez les enfants et les jeunes. Ce modèle recourt à des analogies avec les mécanismes de sonophorèse, d'écholocation et de transmission neurohormonale dans son application thérapeutique. Dans le but de démystifier les éléments pseudo-scientifiques auprès d'un lectorat non spécialisé, cet article critique les postulats et les implications relatifs à ces mécanismes et il conclut à l'absence d'un soutien pertinent et valide concernant ce modèle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La présente étude s’intéresse aux choix de filières de formation des filles comparées aux garçons. La présence des filles dans les filières de formation dans le domaine des sciences, de la technologie, du génie et de la mathématique (STGM) est moins importante que celle des garçons. Ce fait est documenté dans la plupart des pays industrialisés (OCDE, 2013). Les décideurs sont préoccupés par cette sous-représentation des filles et des femmes dans ces domaines et s’affairent à comprendre le phénomène, dans le but d’agir pour changer la situation (Drouin et al., 2008; MCCCF, 2011). Or, les facteurs d’influence pour expliquer cet écart entre les garçons et les filles sont nombreux et ne font pas l’objet d’un consensus dans la littérature (Ceci et al., 2009). Toutefois, plusieurs s’entendent pour dire que les mathématiques, importantes dans les profils de formation en STGM, et la façon dont les filles les perçoivent pourraient expliquer, en partie, leurs choix (Rowan-Kenyon et al., 2012 et Wang et al., 2013). Ces auteurs ont aussi suggéré que le contexte social et les croyances des filles au sujet des mathématiques seraient déterminants dans le processus de choix impliquant cette discipline. Un modèle théorique sociocognitif, inspiré par les travaux de Lent et al, (1994-2006), expliquant le processus de choix scolaires et professionnels a permis de conceptualiser les liens entre les déterminants socio-motivationnels spécifiques aux mathématiques. L’objectif général de la présente étude était de mieux documenter l’importance des mathématiques dans les choix de filières de formation menant aux carrières en STGM. Spécifiquement, nous avons examiné les relations entre le rendement en mathématiques, la perception des élèves quant au contexte social (soutien des parents et enseignants), leurs attentes de réussite, la valeur qu’ils accordent aux mathématiques (sentiment d’autoefficacité, anxiété, perception de l’utilité et intérêt) et les choix de filières de formation générale après leur secondaire (sciences humaines sans mathématiques, sciences humaines avec mathématiques, sciences de la santé et sciences pures). Nous avons exploré les distinctions entre les filles et les garçons. Pour ce faire, 1129 élèves finissants ont été questionnés au sujet de leurs motivations en mathématiques et de leurs intentions de formation post-secondaire. Par la suite, une comparaison entre les 583 filles et les 543 garçons a été réalisée par des analyses de régression logistiques multinomiales. Les résultats montrent que plusieurs déterminants permettent de dégager des similitudes et des différences quant aux choix de filières de formation des filles et des garçons. D’abord, il semble que pour la plupart des élèves, filles ou garçons, un rendement élevé et un important soutien des enseignants tel que perçu par les élèves à la fin du secondaire est davantage lié aux choix de filières en sciences pures et en sciences de la santé qu’en sciences humaines avec ou sans mathématiques. Toutefois, le soutien des parents perçu est plus déterminant pour les filles qui choisissent les sciences de la santé que pour les garçons. Le soutien des enseignants perçu est plus déterminant pour les garçons qui choisissent les sciences humaines que pour les filles. Aussi, un faible sentiment d’autoefficacité en mathématiques serait associé au choix de filières en sciences humaines, alors qu’une forte anxiété en mathématiques chez les filles serait associée aux filières en sciences de la santé. Pour les garçons, c’est davantage l’intérêt en mathématiques qui est déterminant pour choisir la filière des sciences pures. La perception de l’utilité des mathématiques est déterminante à la fois pour les garçons et pour les filles qui choisissent les filières de sciences les menant à des carrières en STGM. En somme, nos résultats suggèrent que le soutien en mathématiques de la part des adultes significatifs, tel que perçu par les élèves, est moins prépondérant que les attentes de réussite (sentiment d’autoefficacité et anxiété) et la valeur accordée aux mathématiques (intérêt et utilité perçue) pour comparer les garçons et les filles dans leurs choix de filières. À la lumière des résultats obtenus, il nous semble que l’implantation de mesures, dans les milieux scolaires, pour renforcer le sentiment d’autoefficacité des jeunes filles en mathématiques et surtout pour diminuer leur taux d’anxiété dans cette matière serait une voie prometteuse pour atteindre la parité entre les garçons et les filles dans les filières en STGM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intégration des technologies de l’information et de la communication (TIC) en contexte éducatif représente un moyen concret d’action et de réflexion en sciences de l’éducation. Les scientifiques et les acteurs de terrain se questionnent sur l’intégration des technologies et sur les moyens à mettre en place afin de réussir ce processus parfois complexe. De fait, la pénétration des outils technologiques dans les établissements scolaires a été exponentielle ces dernières années. Il est aujourd’hui nécessaire de comprendre selon quelles perspectives ces outils s’intègrent en salle de classe. Un exemple marquant est celui de la tablette tactile, récemment intégrée massivement dans les écoles d’Amérique du Nord et d’Europe. Cet outil, relativement récent dans la sphère scolaire, demande une réflexion précise vis-à-vis des pratiques pédagogiques des enseignants et des processus d’intégration inhérents. Afin de répondre à ces questionnements, nous avons élaboré une recherche en trois temps. Dans un premier temps, nous avons dressé un portrait exhaustif des pratiques pédagogiques des enseignants utilisant quotidiennement la tablette tactile en salle de classe. Ce portrait nous permet d’esquisser une synthèse des usages et réalités pédagogiques qui entourent cet outil. Dans un deuxième temps, nous avons répertorié, analysé et classifié les modèles d’intégration des TIC présents dans la littérature. L’analyse de ces modèles nous a permis d’en extraire les forces et les lacunes intrinsèques. Ensuite, nous avons créé un modèle synthèse rassemblant les réflexions issues de ces analyses. En parallèle, nous avons créé une typologie permettant d’identifier et de classifier ces modèles. Dans un troisième temps, nous sommes partis des pratiques pédagogiques des enseignants et du modèle général d’intégration des TIC que nous avons conçu afin de comprendre quel était le processus d’intégration de la tablette en salle de classe. Les résultats obtenus mettent en évidence que l’utilisation de la tablette induit des usages pédagogiques novateurs qui facilitent l’enseignement et qui favorisent l’apprentissage des élèves. Cependant, nous constatons que la tablette n’est pas utilisée à son plein potentiel et que certains usages devraient être envisagés selon une perspective plus efficiente et adaptée. En ce qui concerne les processus d’intégration, nous avons identifié plusieurs éléments indispensables: ces processus doivent être itératifs et constructifs, des facteurs internes et externes doivent être considérés et des niveaux d’intégration doivent être identifiés. Le modèle ainsi conçu spécifie le modèle à privilégier et les aboutissants à considérer. À la suite de cette étape, nous avons conçu un modèle d’intégration spécifiquement dédié à la tablette. Celui-ci met en évidence, au-dedes caractéristiques définies dans le modèle général, une nécessaire formation, une implication des acteurs, un ajustement constant des pratiques pédagogiques et une itération indispensable. À la suite de ces considérations, nous constatons que le processus d’appropriation de la tablette est en cours de construction et que les nouvelles implantations, comme les existantes, doivent procéder à une analyse minutieuse des tenants et aboutissants des pratiques médiées par l’intégration de l’outil. En fin de document, une synthèse des résultats et des recommandations est proposée afin de favoriser l’intégration de la tablette tactile - et des TIC en général – dans la salle de classe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un matériau semi-conducteur utilisé lors de la fabrication d’antennes térahertz (THz), le quaternaire InGaAsP (E_g = 0,79 eV), subit une implantation ionique de Fe suivi d’un recuit thermique rapide (RTA) dans le but d’améliorer ses propriétés d’émission. Le recuit est nécessaire afin de recristalliser la couche amorphisée lors de l’implantation, donnant lieu à un polycristal rempli de défauts de recristallisation. On constate cependant que les matériaux implantés Fe offrent de meilleures performances que ceux simplement endommagés au Ga. Dans le but de départager l’effet des défauts de recristallisation et des impuretés de Fe, des mesures de spectroscopie transitoire des niveaux profonds (DLTS) et de DLTS en courant (I-DLTS), ainsi que de spectrométrie de masse d’ions secondaires par temps de vol (ToF-SIMS) ont été effectuées sur des échantillons non implantés et d’autres recristallisés. Les mesures DLTS et I-DLTS ont pour but de caractériser les niveaux profonds générés par ces deux procédures postcroissance, tout en identifiant le rôle que jouent les impuretés de Fe sur la formation de ces niveaux profonds. De plus, le voisinage des atomes de Fe dans le matériau recristallisé a été étudié à l’aide des mesures ToF-SIMS. Les mesures DLTS sur matériau recristallisé sont peu concluantes, car la mesure de capacité est faussée par la haute résistivité du matériau. Par contre, les mesures I-DLTS sur matériau recristallisé ont permis de conclure que les impuretés de Fe sont responsables de la formation d’une grande variété de niveaux d’énergie se trouvant entre 0,25 et 0,40 eV, alors que les défauts de structure induisent des niveaux de moins de 0,25 eV. La concentration de Fe est élevée par rapport au seuil de solubilité du Fe dans le matériau recristallisé. Il serait donc plausible que des agrégats de Fe se forment. Toutefois, cette hypothèse est infirmée par l'absence de pic aux masses correspondant à la molécule ^(56)Fe_2^+ sur les spectres ToF-SIMS. De plus, un modèle simple est utilisé afin d’estimer si certaines masses présentes sur les spectres ToF-SIMS correspondent à des liaisons non induites par la mesure dans le matériau recristallisé. Bien qu’aucune liaison avec le Ga et l'As n’est détectable, ce modèle n’exclut pas la possibilité de liens préférentiels avec l’In.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le concept de coopération est souvent utilisé dans le domaine de l’éthique et de la politique pour illustrer et comprendre l’alignement des comportements associatifs entre les êtres humains. En lien avec ce concept, notre recherche portera sur la première question de savoir si Kim Sterelny (2003) réussit à produire un modèle théorique permettant d’expliquer les origines et les mécanismes de la coopération humaine. Notre recherche portera aussi sur la deuxième question de savoir s’il arrive à se servir de ce modèle pour infirmer la thèse de la modularité massive. Ainsi, ce mémoire traitera successivement du problème de la coopération, de la théorie de la sélection de groupe, du déclencheur écologique de la coopération des hominidés, des notions de coalition, d’exécution et d’engagement et finalement de la thèse de la modularité massive. Par l’examen de ces sujets, nous souhaitons démontrer que Sterelny n’arrive qu’à fournir une esquisse probable des origines et du développement de la coopération humaine et que sa critique de la thèse de la modularité massive n’arrive pas à infirmer cette dernière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le papier bioactif est obtenu par la modification de substrat du papier avec des biomolécules et des réactifs. Ce type de papier est utilisé dans le développement de nouveaux biocapteurs qui sont portables, jetables et économiques visant à capturer, détecter et dans certains cas, désactiver les agents pathogènes. Généralement les papiers bioactifs sont fabriqués par l’incorporation de biomolécules telles que les enzymes et les anticorps sur la surface du papier. L’immobilisation de ces biomolécules sur les surfaces solides est largement utilisée pour différentes applications de diagnostic comme dans immunocapteurs et immunoessais mais en raison de la nature sensible des enzymes, leur intégration au papier à grande échelle a rencontré plusieurs difficultés surtout dans les conditions industrielles. Pendant ce temps, les microcapsules sont une plate-forme intéressante pour l’immobilisation des enzymes et aussi assez efficace pour permettre à la fonctionnalisation du papier à grande échelle car le papier peut être facilement recouvert avec une couche de telles microcapsules. Dans cette étude, nous avons développé une plate-forme générique utilisant des microcapsules à base d’alginate qui peuvent être appliquées aux procédés usuels de production de papier bioactif et antibactérien avec la capacité de capturer des pathogènes à sa surface et de les désactiver grâce à la production d’un réactif anti-pathogène. La conception de cette plate-forme antibactérienne est basée sur la production constante de peroxyde d’hydrogène en tant qu’agent antibactérien à l’intérieur des microcapsules d’alginate. Cette production de peroxyde d’hydrogène est obtenue par oxydation du glucose catalysée par la glucose oxydase encapsulée à l’intérieur des billes d’alginate. Les différentes étapes de cette étude comprennent le piégeage de la glucose oxydase à l’intérieur des microcapsules d’alginate, l’activation et le renforcement de la surface des microcapsules par ajout d’une couche supplémentaire de chitosan, la vérification de la possibilité d’immobilisation des anticorps (immunoglobulines G humaine comme une modèle d’anticorps) sur la surface des microcapsules et enfin, l’évaluation des propriétés antibactériennes de cette plate-forme vis-à-vis l’Escherichia coli K-12 (E. coli K-12) en tant qu’un représentant des agents pathogènes. Après avoir effectué chaque étape, certaines mesures et observations ont été faites en utilisant diverses méthodes et techniques analytiques telles que la méthode de Bradford pour dosage des protéines, l’électroanalyse d’oxygène, la microscopie optique et confocale à balayage laser (CLSM), la spectrométrie de masse avec désorption laser assistée par matrice- temps de vol (MALDI-TOF-MS), etc. Les essais appropriés ont été effectués pour valider la réussite de modification des microcapsules et pour confirmer à ce fait que la glucose oxydase est toujours active après chaque étape de modification. L’activité enzymatique spécifique de la glucose oxydase après l’encapsulation a été évaluée à 120±30 U/g. Aussi, des efforts ont été faits pour immobiliser la glucose oxydase sur des nanoparticules d’or avec deux tailles différentes de diamètre (10,9 nm et 50 nm) afin d’améliorer l’activité enzymatique et augmenter l’efficacité d’encapsulation. Les résultats obtenus lors de cette étude démontrent les modifications réussies sur les microcapsules d’alginate et aussi une réponse favorable de cette plate-forme antibactérienne concernant la désactivation de E. coli K-12. La concentration efficace de l’activité enzymatique afin de désactivation de cet agent pathogénique modèle a été déterminée à 1.3×10-2 U/ml pour une concentration de 6.7×108 cellules/ml de bactéries. D’autres études sont nécessaires pour évaluer l’efficacité de l’anticorps immobilisé dans la désactivation des agents pathogènes et également intégrer la plate-forme sur le papier et valider l’efficacité du système une fois qu’il est déposé sur papier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les antimoniures sont des semi-conducteurs III-V prometteurs pour le développement de dispositifs optoélectroniques puisqu'ils ont une grande mobilité d'électrons, une large gamme spectrale d'émission ou de détection et offrent la possibilité de former des hétérostructures confinées dont la recombinaison est de type I, II ou III. Bien qu'il existe plusieurs publications sur la fabrication de dispositifs utilisant un alliage d'In(x)Ga(1-x)As(y)Sb(1-y) qui émet ou détecte à une certaine longueur d'onde, les détails, à savoir comment sont déterminés les compositions et surtout les alignements de bande, sont rarement explicites. Très peu d'études fondamentales sur l'incorporation d'indium et d'arsenic sous forme de tétramères lors de l'épitaxie par jets moléculaires existent, et les méthodes afin de déterminer l'alignement des bandes des binaires qui composent ces alliages donnent des résultats variables. Un modèle a été construit et a permis de prédire l'alignement des bandes énergétiques des alliages d'In(x)Ga(1-x)As(y)Sb(1-y) avec celles du GaSb pour l'ensemble des compositions possibles. Ce modèle tient compte des effets thermiques, des contraintes élastiques et peut aussi inclure le confinement pour des puits quantiques. De cette manière, il est possible de prédire la transition de type de recombinaison en fonction de la composition. Il est aussi montré que l'indium ségrègue en surface lors de la croissance par épitaxie par jets moléculaires d'In(x)Ga(1-x)Sb sur GaSb, ce qui avait déjà été observé pour ce type de matériau. Il est possible d'éliminer le gradient de composition à cette interface en mouillant la surface d'indium avant la croissance de l'alliage. L'épaisseur d'indium en surface dépend de la température et peut être évaluée par un modèle simple simulant la ségrégation. Dans le cas d'un puits quantique, il y aura une seconde interface GaSb sur In(x)Ga(1-x)Sb où l'indium de surface ira s'incorporer. La croissance de quelques monocouches de GaSb à basse température immédiatement après la croissance de l'alliage permet d'incorporer rapidement ces atomes d'indium et de garder la seconde interface abrupte. Lorsque la composition d'indium ne change plus dans la couche, cette composition correspond au rapport de flux d'atomes d'indium sur celui des éléments III. L'arsenic, dont la source fournit principalement des tétramères, ne s'incorpore pas de la même manière. Les tétramères occupent deux sites en surface et doivent interagir par paire afin de créer des dimères d'arsenic. Ces derniers pourront alors être incorporés dans l'alliage. Un modèle de cinétique de surface a été élaboré afin de rendre compte de la diminution d'incorporation d'arsenic en augmentant le rapport V/III pour une composition nominale d'arsenic fixe dans l'In(x)Ga(1-x)As(y)Sb(1-y). Ce résultat s'explique par le fait que les réactions de deuxième ordre dans la décomposition des tétramères d'arsenic ralentissent considérablement la réaction d'incorporation et permettent à l'antimoine d'occuper majoritairement la surface. Cette observation montre qu'il est préférable d'utiliser une source de dimères d'arsenic, plutôt que de tétramères, afin de mieux contrôler la composition d'arsenic dans la couche. Des puits quantiques d'In(x)Ga(1-x)As(y)Sb(1-y) sur GaSb ont été fabriqués et caractérisés optiquement afin d'observer le passage de recombinaison de type I à type II. Cependant, celui-ci n'a pas pu être observé puisque les spectres étaient dominés par un niveau énergétique dans le GaSb dont la source n'a pu être identifiée. Un problème dans la source de gallium pourrait être à l'origine de ce défaut et la résolution de ce problème est essentielle à la continuité de ces travaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude s’intéresse à l’industrie de la construction navale pour le milieu du XVIIIe siècle en France dans la région de Bayonne. L’objectif est de documenter la relation qu’entretiennent les pratiques de construction traditionnelles et innovatrices à cette période. L’architecture de la frégate le Machault est au cœur de cette analyse. Construit en 1757 à Bayonne et perdu en 1760, le Machault a été fouillé, documenté et parallèlement récupéré par les archéologues de Parcs Canada entre 1969 et 1972 à Ristigouche dans la baie des Chaleurs, Québec. Cette étude constitue la première analyse architecturale approfondie menée sur ces vestiges. L’analyse est réalisée en trois temps qui correspondent aux trois grandes étapes de la chaine opératoire de la construction du navire. Tout d’abord, il est question d’aborder l’aspect de la foresterie afin de saisir la nature de la ressource forestière mobilisée pour la construction de la frégate. Ensuite, ce mémoire se penche sur la conception architecturale des navires qui renvoie à un aspect plus théorique, car il relève de la façon dont les formes du navire ont été « pensées ». Enfin, la charpenterie est abordée afin de saisir la séquence d’assemblage du navire. Ensemble, ces trois grands aspects dressent un portrait général de la construction navale pour la région de Bayonne au milieu du XVIIIe siècle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.