619 resultados para Problème 3SUM
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
L’isolement avec ou sans contention (IC) en milieu psychiatrique touche près d’un patient sur quatre au Québec (Dumais, Larue, Drapeau, Ménard, & Giguère-Allard, 2011). Il est pourtant largement documenté que cette pratique porte préjudice aux patients, aux infirmières et à l’organisation (Stewart, Van der Merwe, Bowers, Simpson, & Jones, 2010). Cette mesure posant un problème éthique fait l’objet de politiques visant à la restreindre, voire à l’éliminer. Les études sur l’expérience de l’isolement du patient de même que sur la perception des infirmières identifient le besoin d'un retour sur cet évènement. Plusieurs équipes de chercheurs proposent un retour post-isolement (REPI) intégrant à la fois l’équipe traitante, plus particulièrement les infirmières, et le patient comme intervention afin de diminuer l’incidence de l’IC. Le REPI vise l’échange émotionnel, l’analyse des étapes ayant mené à la prise de décision d’IC et la projection des interventions futures. Le but de cette étude était de développer, implanter et évaluer le REPI auprès des intervenants et des patients d’une unité de soins psychiatriques aigus afin d’améliorer leur expérience de soins. Les questions de recherche étaient : 1) Quel est le contexte d’implantation du REPI? 2) Quels sont les éléments facilitants et les obstacles à l’implantation du REPI selon les patients et les intervenants? 3) Quelle est la perception des patients et des intervenants des modalités et retombées du REPI?; et 4) L’implantation du REPI est-elle associée à une diminution de la prévalence et de la durée des épisodes d’IC? Cette étude de cas instrumentale (Stake, 1995, 2008) était ancrée dans une approche participative. Le cas était celui de l’unité de soins psychiatriques aigus pour premier épisode psychotique où a été implanté le REPI. En premier lieu, le développement du REPI a d’abord fait l’objet d’une documentation du contexte par une immersion dans le milieu (n=56 heures) et des entretiens individuels avec un échantillonnage de convenance (n=3 patients, n=14 intervenants). Un comité d’experts (l’étudiante-chercheuse, six infirmières du milieu et un patient partenaire) a par la suite développé le REPI qui comporte deux volets : avec le patient et en équipe. L’évaluation des retombées a été effectuée par des entretiens individuels (n= 3 patients, n= 12 intervenants) et l’examen de la prévalence et de la durée des IC six mois avant et après l’implantation du REPI. Les données qualitatives ont été examinées selon une analyse thématique (Miles, Huberman, & Saldana, 2014), tandis que les données quantitatives ont fait l’objet de tests descriptifs et non-paramétriques. Les résultats proposent que le contexte d’implantation est défini par des normes implicites et explicites où l’utilisation de l’IC peut générer un cercle vicieux de comportements agressifs nourris par un profond sentiment d’injustice de la part des patients. Ceux-ci ont l’impression qu’ils doivent se conformer aux attentes du personnel et aux règles de l’unité. Les participants ont exprimé le besoin de créer des opportunités pour une communication authentique qui pourrait avoir lieu lors du REPI, bien que sa pratique soit variable d’un intervenant à un autre. Les résultats suggèrent que le principal élément ayant facilité l’implantation du REPI est l’approche participative de l’étude, alors que les obstacles rencontrés relèvent surtout de la complexité de la mise en œuvre du REPI en équipe. Lors du REPI avec le patient, les infirmières ont pu explorer ses sentiments et son point de vue, ce qui a favorisé la reconstruction de la relation thérapeutique. Quant au REPI avec l’équipe de soins, il a été perçu comme une opportunité d’apprentissage, ce qui a permis d’ajuster le plan d’intervention des patients. Suite à l’implantation du REPI, les résultats ont d’ailleurs montré une réduction significative de l’utilisation de l’isolement et du temps passé en isolement. Les résultats de cette thèse soulignent la possibilité d’outrepasser le malaise initial perçu tant par le patient que par l’infirmière en systématisant le REPI. De plus, cette étude met l’accent sur le besoin d’une présence authentique pour atteindre un partage significatif dans la relation thérapeutique, ce qui est la pierre d’assise de la pratique infirmière en santé mentale. Cette étude contribue aux connaissances sur la prévention des comportements agressifs en milieu psychiatrique en documentant le contexte dans lequel se situe l’IC, en proposant un REPI comportant deux volets de REPI et en explorant ses retombées. Nos résultats soutiennent le potentiel du développement d’une prévention tertiaire qui intègre à la fois la perspective des patients et des intervenants.
Resumo:
Il y a peu de recherche sur la comorbidité concomitante entre les problèmes de santé mentale et la dépression, tels que perçus par les adolescents de 12-15 ans. L’objectif de cette étude est d’effectuer des analyses secondaires pour vérifier l’association entre quatre problèmes de santé mentale (phobies spécifiques (PS), anxiété généralisée (AG), opposition avec provocation (OP), problème des conduites (PC)) et la dépression ainsi que les interactions de ces associations avec l’âge (12-13 ans; 14-15 ans) et le sexe. Ces problèmes ont été évalués par le Dominique Interactif pour Adolescents (DIA), un questionnaire informatisé et auto-administré. L’analyse de la régression logistique a été réalisée séparément dans un échantillon clinique (n=141) et dans un échantillon scolaire (n=464) composés d’adolescents francophones. Les résultats indiquent un effet d’interaction significatif dans l’échantillon clinique suggérant que les filles ont trois fois plus de chance d’avoir une comorbidité entre les PS et la dépression comparativement aux garçons. Les modèles multivariés révèlent que pour les autres associations, la comorbidité ne varie pas significativement selon l’âge et le sexe. Cependant, dans les deux échantillons, une forte association entre AG, OP, ou PC et la dépression a été observé indépendamment de l’âge et du sexe, ce qui suggère l’importance de la comorbidité globale entre ces problèmes. L’utilisation du DIA pour évaluer la perception des adolescents concernant leurs problèmes de santé mentale représente une contribution originale de cette étude. Les résultats obtenus suggèrent que l’évaluation clinique de la comorbidité devrait inclure l’information provenant de l’adolescent.
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.
Resumo:
S’approvisionner en nourriture est essentiel à la survie et au succès reproducteur. Lorsque les animaux font face à des changements environnementaux brutaux, ils doivent s’ajuster rapidement à leur nouvel environnement et parfois même innover dans leur façon de s’approvisionner. Des processus comportementaux et cognitifs, tels que l’innovation et l’apprentissage, permettent aux animaux d'intégrer de nouveaux comportements à leur répertoire comportemental afin de s'adapter de façon optimale. Les performances cognitives varient entre les individus d’une même population et bien que des études récentes se soient intéressées aux causes de ce phénomène, de convaincantes évidences sont manquantes afin d’expliquer pourquoi ces variations sont maintenues. Au cours de ce mémoire, les questions des pressions de sélection s'exerçant sur les performances d’alimentation par une tâche motrice nouvelle sont abordées afin de mieux comprendre l'évolution des capacités cognitives au sein d'une population captive de diamants mandarins (Taeniopygia guttata). Nous avons tout d'abord testé si les femelles diamants mandarins modifient leurs préférences d'accouplement après avoir observé la performance d'alimentation par une tâche motrice nouvelle des mâles. Afin de déterminer si les femelles sont capables de discriminer entre les mâles sur la base de leur capacité cognitive, nous avons également évalué les performances d’apprentissage de chacune d’elles. En effet, des études ont suggéré qu’il peut être coûteux, spécialement en terme de temps, de discriminer entre des partenaires potentiels sur cette base. La généralisation d’une préférence pour un mâle performant à d’autres mâles possédant le même phénotype permettrait la réduction de ces coûts. Nous avons donc finalement testé si les femelles diamants mandarins peuvent généraliser leur préférence après avoir observé les performances d’alimentation pour une tâche motrice nouvelle d’un mâle. Nos résultats suggèrent que les femelles diamants mandarins ne peuvent évaluer les capacités cognitives d’un mâle par l’intermédiaire de traits indicateurs. Toutefois, nous avons démontré qu’une observation directe des performances d’alimentation d’un mâle guide le choix d’appariement des femelles. Également, nous avons montré que les femelles peuvent généraliser l’apparence du mâle le plus performant et utiliser cette information lors de l’évaluation de nouveaux mâles. La relation entre les performances cognitives et le choix de partenaire pourraient s’expliquer par exemple par une meilleure exploitation de l’habitat, mais nécessite des études plus approfondies.
Resumo:
L’insuffisance cardiaque (IC) est un problème d’importance grandissante lié à des perturbations des systèmes nerveux autonome, immunitaire, et cardiovasculaire. Ces perturbations contribuent à plusieurs symptômes physiques et psychologiques invalidants. La recherche faite jusqu’ici sur des programmes d’exercice basés sur le yoga a démontré des résultats préliminaires assez prometteurs en IC. Néanmoins, il reste des lacunes à combler dans la littérature face aux populations testées, à la combinaison des mesures physiques et psychologiques, au suivi du traitement à la maison et à la perception des symptômes au quotidien. Ce projet pilote a donc pour objectif de développer un programme d’exercice complémentaire basé sur le yoga adapté aux patients souffrant d’IC, d’en mesurer la faisabilité et l’acceptabilité en plus d’obtenir des données préliminaires quant à l’impact de cette intervention à réduire la symptomatologie physique et psychologique et d’améliorer la qualité de vie (QV) de ces patients. Les deux premiers participants recrutés dans le cadre de l’étude pilote font l’objet de ce mémoire. Ils ont pris part à huit séances hebdomadaires de yoga Bali, couplé de psychoéducation et méditation tous données à l’Institut de Cardiologie de Montréal par une instructrice certifiée dans la méthode BALI. L’élaboration des outils nécessaires au déroulement du programme, y compris le manuel d’enseignement et le DVD, la faisabilité d’une collaboration avec le personnel médical et évidement l’évaluation des effets du programme en soit sur les symptômes physiques et psychologique s sont parmi les sujets abordés. Les résultats, quoique préliminaires, semblent tendre vers une amélioration des corrélats physiologiques liés à l’insuffisance cardiaque, notamment l’activité du système nerveux autonome tel que témoigné par la variabilité de la fréquence cardiaque, et l’inflammation indiqué par le niveau de CRP sanguin.
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Resumo:
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.