997 resultados para Problème 3SUM


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accessibilité à des soins de santé pour une population habitant une région éloignée au Québec représente un défi de taille pour le Ministère de la santé et des services sociaux. Des solutions, telles que la télésanté, ont été présentées afin de pallier ce problème. Le RUIS McGill a ainsi développé un programme de téléobstétrique afin de desservir une population de femmes inuites à grossesse à risque élevé (GARE) habitant le Nunavik. L’objectif de ce mémoire fut de comprendre l’impact du service de téléobstétrique du RUIS McGill sur la santé des femmes et de leur nouveau-né ainsi que sur les coûts de santé et l’utilisation des services suite à son implantation au Centre de santé et de services sociaux Inuulitsivik sur la côte de la baie d’Hudson. Les femmes inuites à grossesse à risque élevé et leurs enfants de la région de la baie d’Hudson du Nunavik, éloignés des services obstétriques spécialisés, sont visés. Le service de téléobstétrique permet un accès aux obstétriciens du RUIS McGill localisés à Montréal. Un devis quasi-expérimental est utilisé pour examiner trois hypothèses portant sur l’état de santé des mères et des enfants, sur l’utilisation des services de santé et sur leurs coûts. Le service de téléobstétrique est devenu fonctionnel en 2006, offrant la possibilité de constituer une étude avant-après à deux groupes de femmes, soit celles ayant accouché avant 2006 (prétest) et celle ayant accouché après 2012 (post-test). La collecte de donnée se fit, dans son intégralité, par l’entremise des dossiers médicaux papier des participantes permettant l’analyse de 47 dossiers pour le prétest et de 81 dossiers pour le post-test. L’exécution d’analyse de covariance, de régression logistique et du test non paramétrique de Mann-Witney permit de conclure que le prétest et le post-test ne différent que sur deux variables, soient le poids à la naissance, plus faible dans le post-test et la pression artérielle de la mère à la naissance, plus élevée dans le post-test. Pour l’ensemble des autres variables portant sur les trois hypothèses à l’étude, les résultats de ce mémoire ne démontrent aucune différence significative entre les deux groupes démontrant ainsi qu’une même qualité de soins a été conservée suite à l’implantation du programme de téléobstétrique. Sur la base des résultats, ce mémoire recommande de revoir et modifier les objectifs du programme; de partager les bornes de communication de télésanté avec d’autres spécialités; d’entreprendre une évaluation du programme axée sur les coûts; de suivre rigoureusement l’utilisation du programme pour en maximiser l’efficacité et le potentiel; d’établir un tableau de bord; et d’entreprendre une étude évaluative comparative dans un service de téléobstétrique comparable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le concept de coopération est souvent utilisé dans le domaine de l’éthique et de la politique pour illustrer et comprendre l’alignement des comportements associatifs entre les êtres humains. En lien avec ce concept, notre recherche portera sur la première question de savoir si Kim Sterelny (2003) réussit à produire un modèle théorique permettant d’expliquer les origines et les mécanismes de la coopération humaine. Notre recherche portera aussi sur la deuxième question de savoir s’il arrive à se servir de ce modèle pour infirmer la thèse de la modularité massive. Ainsi, ce mémoire traitera successivement du problème de la coopération, de la théorie de la sélection de groupe, du déclencheur écologique de la coopération des hominidés, des notions de coalition, d’exécution et d’engagement et finalement de la thèse de la modularité massive. Par l’examen de ces sujets, nous souhaitons démontrer que Sterelny n’arrive qu’à fournir une esquisse probable des origines et du développement de la coopération humaine et que sa critique de la thèse de la modularité massive n’arrive pas à infirmer cette dernière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en psychologie (D. Psy,), option clinique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considérée plus manifestement comme une analyse de la perception et du temps et de l’espace vécus, la Phénoménologie de la perception de Merleau-Ponty fait en outre droit à une réflexion naissante – mais aussi peut-être, plus essentielle – sur le phénomène de l’expression et l’horizon englobant de la question du sens. En effet, le problème de l’expression n’est pas à comprendre comme un épiphénomène de l’existence humaine : il témoigne plus holistiquement des liens profonds qui unissent subjectivité et intersubjectivité, rattache notre existence à un passé humain et décrit plus généralement la complicité de notre corps avec le monde. Cette recherche se propose de comprendre intérieurement la toile des liens intimes qui unissent corporéité et expression, afin d’éclairer le rôle constitutif du corps dans la reprise d’intentions de signification et l’institution créative de nouveaux actes expressifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en psychologie (D. Psy,), option clinique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considérée plus manifestement comme une analyse de la perception et du temps et de l’espace vécus, la Phénoménologie de la perception de Merleau-Ponty fait en outre droit à une réflexion naissante – mais aussi peut-être, plus essentielle – sur le phénomène de l’expression et l’horizon englobant de la question du sens. En effet, le problème de l’expression n’est pas à comprendre comme un épiphénomène de l’existence humaine : il témoigne plus holistiquement des liens profonds qui unissent subjectivité et intersubjectivité, rattache notre existence à un passé humain et décrit plus généralement la complicité de notre corps avec le monde. Cette recherche se propose de comprendre intérieurement la toile des liens intimes qui unissent corporéité et expression, afin d’éclairer le rôle constitutif du corps dans la reprise d’intentions de signification et l’institution créative de nouveaux actes expressifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie: Méta-analyse

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des techniques adaptées aux contextes routiers sont nécessaires pour maintenir et réhabiliter des chaussées construites sur pergélisol ou en contexte de gel saisonnier. Plusieurs problématiques peuvent engendrer une augmentation des coûts de réparation et entretien, une diminution de la durée de vie des chaussées et des problèmes reliés à la sécurité des usagers de la route. L’objectif du projet consiste donc à élaborer un outil d’aide à la décision, qui contribuerait à localiser les zones sensibles au gel saisonnier et à la dégradation du pergélisol, à discerner les causes de dégradation des chaussées dues au gel saisonnier et à sélectionner les meilleures stratégies d’atténuation et de réfection à moindre coût. Le projet de recherche est divisé en deux volets distincts. Le premier volet traite des problématiques de gel de chaussées en contexte de gel saisonnier. Actuellement, il existe des méthodes de diagnostic qui permettent de détecter les endroits où un problème de gélivité est susceptible d’être présent. Par contre, ces méthodes ne permettent pas de discerner si le problème de gel est en profondeur ou en surface de la chaussée; en d’autres mots si le problème est lié à un soulèvement différentiel du sol ou à un soulèvement de fissures. De plus, les méthodes utilisées ne sont pas adaptées aux chaussées en contexte municipal. Selon les problématiques connues de certains sites, il a été possible de développer un abaque permettant de différencier si la problématique de gel se situe en surface ou en profondeur dans une chaussée. Puis, une analyse d’imagerie 3D a été réalisée pour complémenter l’abaque créé. À l’aide de cette technologie, une nouvelle méthode sera mise au point pour détecter des problématiques de gel grâce aux profils transversaux. Le deuxième volet porte sur les chaussées construites sur pergélisol. Les méthodes actuelles de détection de la dégradation du pergélisol sous les chaussées manquent de précision et ont besoin d’être raffinées, surtout dans le contexte actuel de réchauffement climatique. Pour ce faire, trois sites d’essais ont été étudiés sur l’Alaska Highway au Yukon. En fonction de différentes analyses telles que des analyses de profils longitudinaux, de la densité spectrale et de longueurs d’onde, des tendances ont été décelées pour caractériser l’instabilité du pergélisol.