313 resultados para Limites de la viabilité
Resumo:
Commentaire / Commentary
Resumo:
Ce mémoire de maîtrise porte sur une poétique de l’excès dans Orlando de Virginia Woolf et Nightwood de Djuna Barnes comme une stratégie combattant la tendance qu’a le modernisme à dévaloriser l’écriture des femmes comme étant trop ornementale. J’expose comment Ezra Pound, T.S. Eliot, et Wyndham Lewis tentent de récupérer la notion du détail afin d’affirmer une poétique masculin. Je fais appel également aux oeuvres de l’architecte autrichien Adolf Loos qui souligne sa dénonciation de l’ornement comme régressif. Dans Orlando et Nightwood, je considère l’excès associé au corps. Je soutiens que, dans ces textes, les corps dépassent les limites de la représentation moderniste. Je considère aussi comment Orlando et Nightwood font apparaître la narration comme ornement et écrivent excessivement l’histoire et le temps. Pour conclure, je propose une façon de lire l’excès afin de reconceptualiser le potentiel de production de la signification dans des textes modernistes.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
Les récoltes de céréales sont souvent contaminées par des moisissures qui se développent pendant la récolte et l’entreposage et produisent des métabolites secondaires appelés mycotoxines. Le porc est reconnu pour être sensible au déoxynivalénol (DON). L’infection virale la plus importante chez le porc est causée par le virus du syndrome reproducteur et respiratoire porcin (VSRRP). Celui-ci provoque un syndrome grippal et des troubles de reproduction. L’objectif du présent projet était de déterminer l'effet in vitro de DON sur la réplication du VSRRP dans de lignées cellulaires permissives, MARC-145 et PAM, et déterminer in vivo l'impact de DON dans des aliments naturellement contaminés sur l’infection au VSRRP chez le porcelet. Tout d’abord, les cellules ont été incubées avec des doses croissantes de DON et ont été infectées avec du VSRRP pour évaluer la viabilité et la mortalité cellulaire, la réplication virale et l’expression de cytokines. Les résultats ont montré que les concentrations de DON de 560ng/ml et plus affectaient significativement la survie des cellules MARC-145 et PAM infectées par le VSRRP. En revanche, il y avait une augmentation significative de la viabilité et une réduction de la mortalité cellulaire à des concentrations de DON de 140 à 280 ng/ml pour les cellules PAM et de 70 à 280 ng/ml pour les cellules MARC-145 avec une réduction de l'effet cytopathique provoqué parle VSRRP. Au niveau in vivo, 30 porcelets divisés en 3 groupes de 10 porcelets et nourris pendant 2 semaines avec 3 différentes diètes naturellement ont été contaminées avec DON (0; 2,5 et 3,5 mg/kg). Les porcelets ont été subdivisés en 6 groupes, 3 groupes de 6 porcelets et ont été exposés au DON pendant 2 semaines et infectés par voie intratrachéale et intramusculaire avec le virus. Les 3 autres groupes de 4 porcelets servaient de contrôle non infectés. Les signes cliniques ont été enregistrés pendant 21 jours. La virémie a été évaluée par PCR. À la fin de l’expérimentation, les porcelets ont été euthanasiés et les lésions pulmonaires ont été évaluées. Les résultats ont montré que l’ingestion de DON à 3,5 mg/kg a augmenté l’effet du VSRRP sur la sévérité des signes cliniques, les lésions pulmonaires et la mortalité. L’ingestion de DON à 2,5 mg/kg a entrainé une augmentation de la virémie au jour 3 après l’infection mais sans impact sur les signes cliniques et les lésions pulmonaires. Mot clés: DON, VSRRP, MARC-145, PAM, effet cytopathique, cytokines, PCR
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
L’objectif de ce mémoire est de démontrer le rôle important de la langue dans la pièce de théâtre Death and the King’s Horseman par l’auteur nigérian Wole Soyinka. Le premier chapitre traite les implications de l'écriture d'un texte postcolonial dans la langue anglaise et revisite les débats linguistiques des années 1950 et 1960. En plus de l'anglais, ce mémoire observe l'utilisation d'autres formes de communication telles que l'anglais, le pidgin nigérian, les dialectes locaux et les métaphores Yoruba. Par conséquent, l'intersection entre la langue et la culture devient évidente à travers la description des rituels. La dernière partie de ce mémoire explore l'objectif principal de Soyinka de créer une «essence thrénodique». Avec l'utilisation de masques rituels, de la danse et de la musique, il développe un type de dialogue qui dépasse les limites de la forme écrite et est accessible seulement à ceux qui sont équipés de sensibilités culturelles Yoruba.
Resumo:
Il existe un grand intérêt pour le développement et les applications des nanotubes de carbone (NTC) car ils ont un énorme potentiel dans diverses applications industrielles. Cependant, leur dimension nanométrique et leur composition chimique peuvent constituer un risque sur la santé humaine. Les mécanismes responsables de la toxicité des NTC restent encore à définir. L’objectif de ce projet était de déterminer la toxicité potentielle de deux types de nanotubes de carbone simple-paroi (NTCSP): RN 000 et RN 003 chez une lignée cellulaire de pneumocytes de type II, les cellules A549. Méthodologie: Les essais MTS et PrestoBlue®, le test d’exclusion au bleu de trypan, la coloration HT-IP et l’Apoptotic Blebs ont été utilisés pour déterminer la toxicité potentielle de ces NTCSP. Résultats: Suite à une exposition de courte durée (24h), l’essai MTS a montré une diminution de la viabilité cellulaire significative de 20% pour [NTCSP] à 50 et 100 µg/ml et 74% pour [NTCSP] à 1000 µg/mL. Le PrestoBlue® a indiqué une mortalité cellulaire d’environ 45% et de 85% pour des concentration de 500 et 1000 µg/ml de NTCSP. Cependant, les données de l’essai d’exclusion du bleu de trypan ont montré que les NTCSP n’altèrent pas la viabilité cellulaire. L’absence d’une altération de la viabilité cellulaire a été confirmée avec la coloration HT-IP et l’Apoptotic Blebs. Cependant, l’interaction des NTCSP avec les cellules A549 a induit un changement de la morphologie cellulaire ; une diminution de la taille ainsi une augmentation de la structure interne des cellules A549. À une exposition à longue durée (72h), les données ont confirmé les résultats d’exposition à 24h. En effet, il n’y a de pas de mortalité cellulaire, mais une diminution de la prolifération cellulaire. En conclusion, notre étude indique que le RN 000 et le RN 003 interagissent avec les cellules A549 sans altérer leur viabilité, mais en induisant une dysfonction mitochondriale qui pourrait avoir plusieurs conséquences sur la fonction cellulaire.
Resumo:
La détection et la caractérisation des nanoparticules manufacturées (NPM) est l’une des premières étapes pour contrôler et diminuer leurs risques potentiels sur la santé humaine et l’environnement. Différents systèmes d’échantillonnage dans l’air existent pour l’évaluation d’une exposition aux NPM. Cependant, ils ne mesurent pas le risque potentiel de cette exposition à la santé humaine ni les mécanismes cellulaires qui en seraient responsables. Nos objectifs de recherche sont 1) Évaluer les effets de différents types de nanoparticules sur des cellules pulmonaires humaines et 2) Identifier de nouveaux mécanismes intracellulaires activés lors de l’exposition à divers types de NPM. Méthodologie: La lignée de cellules A549 a été utilisée. Trois types de NPM ont été étudiés (différentes concentrations et temps d’exposition): les nanoparticules de dioxyde de titane de type anatase (TiO2), les nanotubes de carbone simple paroi (NTCSP) et les nanoparticules de noir de carbone (NC). La viabilité cellulaire a été mesurée par le test MTS, le test PrestoBlue et le test d’exclusion du bleu de Trypan (uniquement pour les NTCSP). La mesure du stress oxydatif a été déterminée par la mesure des dérivés réactifs de l’oxygène (ROS) en utilisant l’essai DCFH-DA. L’activation d’une réponse anti-oxydative a été déterminée par la mesure de la forme réduite (GSH) et oxydée (GSSG) du glutathion, ainsi que du ratio GSH/GSSG (seulement avec NTCSP et TiO2). Résultats: Les trois nanoparticules ne semblent pas être toxiques pour les cellules A549 car il y a une diminution significative mais minime de la viabilité cellulaire. Cependant, elles induisent une augmentation du contenu intracellulaire en ROS qui est à la fois dépendante du temps et de la concentration. Aucun changement dans les concentrations de GSH et GSSG n’a été observé. En conclusion, nos données indiquent que la mesure de la viabilité n’est pas un critère suffisant pour conclure à la toxicité des NPM. La production de ROS est un critère intéressant, cependant il faudra démontrer l’activation de systèmes anti-oxydatifs pour expliquer l’absence de mortalité cellulaire suite à l’exposition aux NPM.
Resumo:
Grâce à son accessibilité, sa polyvalence et sa sécurité, l'échocardiographie est devenue la technique d'imagerie la plus utilisée pour évaluer la fonction cardiaque. Au vu du succès de l'échographie ultrarapide par ondes planes des techniques similaires pour augmenter la résolution temporelle en échocardiographie ont été mise en oeuvre. L’augmentation de la résolution temporelle de l’échographie cardiaque au-delà des valeurs actuellement atteignables (~ 60 à 80 images par secondes), pourrait être utilisé pour améliorer d’autres caractéristiques de l'échocardiographie, comme par exemple élargir la plage de vitesses détectables en imagerie Doppler couleur limitées par la valeur de Nyquist. Nous avons étudié l'échocardiographie ultrarapide en utilisant des fronts d’ondes ultrasonores divergentes. La résolution temporelle atteinte par la méthode d'ondes divergentes a permis d’améliorer les capacités des modes d’échocardiographie en mode B et en Doppler couleur. La résolution temporelle de la méthode mode B a été augmentée jusqu'à 633 images par secondes, tout en gardant une qualité d'image comparable à celle de la méthode d’échocardiographie conventionnelle. La vitesse de Nyquist de la méthode Doppler couleur a été multipliée jusqu'à 6 fois au delà de la limite conventionnelle en utilisant une technique inspirée de l’imagerie radar; l’implémentation de cette méthode n’aurait pas été possible sans l’utilisation de fronts d’ondes divergentes. Les performances avantageuses de la méthode d'échocardiographie ultrarapide sont supportées par plusieurs résultats in vitro et in vivo inclus dans ce manuscrit.
Resumo:
La pratique des droits de l'homme est souvent décrite comme une entreprise qui vise à établir des standards minimaux pour guider l'action des États et des individus. Dans cet article, je tente de remettre en question la position minimaliste défendue par deux auteurs, James Nickel et James Griffin, en défendant une thèse selon laquelle la philosophie et la morale ne devraient pas être limitées par la pratique et les circonstances du monde. Sans apporter une réponse précise à la question de la faisabilité des droits de l'homme tels qu'on les connaît, je soutiens que le minimalisme défendu par Griffin et Nickel n'est pas nécessaire, ni souhaitable, dans la lutte pour la défense des droits de l'homme, lutte dans laquelle la philosophie a un rôle de premier ordre à jouer.
Resumo:
Dans deux articles récents, Clare Palmer défend la portée morale de la distinction entre animaux non humains domestiqués et animaux non humains sauvages suivant une approche « contextuelle ». Suivant cette approche, Palmer considère que les liens historiques qui unissent les animaux domestiqués aux êtres humains, à l'origine causale d'un état de dépendance et de vulnérabilité subi par les premiers, génèrent des obligations morales spéciales à leur égard (devoir de protection, notamment) non partagées par les animaux non-domestiqués (« sauvages »). Considérant tout d'abord les limites de la distinction sauvage/domestique et de l'approche contextuelle proposées par Palmer, cet article questionne la capacité de l'approche contextuelle de Palmer à pouvoir faire sens néanmoins d'une autre idée de sauvage, à savoir un sauvage « localisé » ou environnemental.
Resumo:
L’électrofilage est une technique de mise en œuvre efficace et versatile qui permet la production de fibres continues d’un diamètre typique de quelques centaines de nanomètres à partir de l’application d’un haut voltage sur une solution concentrée de polymères enchevêtrés. L’évaporation extrêmement rapide du solvant et les forces d’élongation impliquées dans la formation de ces fibres leur confèrent des propriétés hors du commun et très intéressantes pour plusieurs types d’applications, mais dont on commence seulement à effleurer la surface. À cause de leur petite taille, ces matériaux ont longtemps été étudiés uniquement sous forme d’amas de milliers de fibres avec les techniques conventionnelles telles que la spectroscopie infrarouge ou la diffraction des rayons X. Nos connaissances de leur comportement proviennent donc toujours de la convolution des propriétés de l’amas de fibres et des caractéristiques spécifiques de chacune des fibres qui le compose. Les études récentes à l’échelle de la fibre individuelle ont mis en lumière des comportements inhabituels, particulièrement l’augmentation exponentielle du module avec la réduction du diamètre. L’orientation et, de manière plus générale, la structure moléculaire des fibres sont susceptibles d’être à l'origine de ces propriétés, mais d’une manière encore incomprise. L’établissement de relations structure/propriétés claires et l’identification des paramètres qui les influencent représentent des défis d’importance capitale en vue de tirer profit des caractéristiques très particulières des fibres électrofilées. Pour ce faire, il est nécessaire de développer des méthodes plus accessibles et permettant des analyses structurales rapides et approfondies sur une grande quantité de fibres individuelles présentant une large gamme de diamètre. Dans cette thèse, la spectroscopie Raman confocale est utilisée pour l’étude des caractéristiques structurales, telles que l’orientation moléculaire, la cristallinité et le désenchevêtrement, de fibres électrofilées individuelles. En premier lieu, une nouvelle méthodologie de quantification de l’orientation moléculaire par spectroscopie Raman est développée théoriquement dans le but de réduire la complexité expérimentale de la mesure, d’étendre la gamme de matériaux pour lesquels ces analyses sont possibles et d’éliminer les risques d’erreurs par rapport à la méthode conventionnelle. La validité et la portée de cette nouvelle méthode, appelée MPD, est ensuite démontrée expérimentalement. Par la suite, une méthodologie efficace permettant l’étude de caractéristiques structurales à l’échelle de la fibre individuelle par spectroscopie Raman est présentée en utilisant le poly(éthylène téréphtalate) comme système modèle. Les limites de la technique sont exposées et des stratégies expérimentales pour les contourner sont mises de l’avant. Les résultats révèlent une grande variabilité de l'orientation et de la conformation d'une fibre à l'autre, alors que le taux de cristallinité demeure systématiquement faible, démontrant l'importance et la pertinence des études statistiques de fibres individuelles. La présence de chaînes montrant un degré d’enchevêtrement plus faible dans les fibres électrofilées que dans la masse est ensuite démontrée expérimentalement pour la première fois par spectroscopie infrarouge sur des amas de fibres de polystyrène. Les conditions d'électrofilage favorisant ce phénomène structural, qui est soupçonné d’influencer grandement les propriétés des fibres, sont identifiées. Finalement, l’ensemble des méthodologies développées sont appliquées sur des fibres individuelles de polystyrène pour l’étude approfondie de l’orientation et du désenchevêtrement sur une large gamme de diamètres et pour une grande quantité de fibres. Cette dernière étude permet l’établissement de la première relation structure/propriétés de ces matériaux, à l’échelle individuelle, en montrant clairement le lien entre l’orientation moléculaire, le désenchevêtrement et le module d'élasticité des fibres.
Resumo:
Lorsque les aléas naturels se déroulent en catastrophes, les réponses des religieux, de l’Etat, et d’autres acteurs puissants dans une société révèlent à la fois les relations complexes entre ces parties et leur pouvoir dans la production des espaces auxquelles les survivants accèdent. La réponse en cas de catastrophe comprend la création d’espaces post-catastrophes, tels que des centres d’évacuation, des logements de transition et des sites de réinstallation permanente, qui ciblent spécifiquement un sous-ensemble particulier de survivants, et visent à les aider à survivre, à faire face, et à se remettre de la catastrophe. Les acteurs puissants dans une société dirigent les processus de secours, de récupération et de reconstruction sont des acteurs puissants qui cherchent à problématiser et à rendre un problème technique dans des termes qu’ils sont idéalement placés pour aborder à travers une variété d'interventions. Ce projet de recherche vise à répondre à la question: où les survivants d'une catastrophe reconstruisent-ils leurs vies et leurs moyens de subsistance? Il enquête sur un cas spécifique de la migration environnementale dans laquelle des dizaines de milliers d'habitants ont été déplacés de façon permanente et temporaire de leurs résidences habituelles après le typhon Sendong à Cagayan de Oro, Philippines en 2011. La recherche est basée sur des entretiens avec les acteurs puissants et les survivants, des vidéos participatives réalisées par des survivants pauvres urbains, et des activités de cartographie. L’étude se fonde sur la théorie féministe, les études de migration, les études dans la gouvernementalité, la recherche sur les changements de l’environnement planétaire, et les études régionales afin de situer les diverses expériences de la migration dans un contexte géographique et historique. Cette thèse propose une topographie critique dans laquelle les processus et les pratiques de production d’espaces post-catastrophe sont exposés. Parce que l’espace est nécessairement malléable, fluide, et relationnelle en raison de l'évolution constante des activités, des conflits, et des expériences qui se déroulent dans le paysage, une analyse de l'espace doit être formulée en termes de relations sociales qui se produisent dans et au-delà de ses frontières poreuses. En conséquence, cette étude explore comment les relations sociales entre les survivants et les acteurs puissants sont liées à l’exclusion, la gouvernementalité, la mobilité, et la production des espaces, des lieux et des territoires. Il constate que, si les trajectoires de migration de la plupart des survivants ont été confinés à l'intérieur des limites de la ville, les expériences de ces survivants et leur utilisation des espaces urbains sont très différentes. Ces différences peuvent être expliquées par des structures politiques, économiques, et sociales, et par les différences religieuses, économiques, et de genre. En outre, il fait valoir que les espaces post-catastrophe doivent être considérés comme des «espaces d’exclusion» où les fiduciaires exercent une rationalité gouvernementale. C’est-à-dire, les espaces post-catastrophe prétendument inclusives servent à marginaliser davantage les populations vulnérables. Ces espaces offrent aussi des occasions pour les acteurs puissants dans la société philippine d'effectuer des interventions gouvernementales dans lesquelles certaines personnes et les paysages sont simplifiées, rendues lisibles, et améliorés.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.