957 resultados para Fonction objectif


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Avec la disponibilité de capteurs fiables de teneur en eau exploitant la spectroscopie proche infrarouge (NIR pour near-infrared) et les outils chimiométriques, il est maintenant possible d’appliquer des stratégies de commande en ligne sur plusieurs procédés de séchage dans l’industrie pharmaceutique. Dans cet ouvrage, le séchage de granules pharmaceutiques avec un séchoir à lit fluidisé discontinu (FBD pour fluidized bed dryer) de taille pilote est étudié à l’aide d’un capteur d’humidité spectroscopique. Des modifications électriques sont d’abord effectuées sur le séchoir instrumenté afin d’acheminer les signaux mesurés et manipulés à un périphérique d’acquisition. La conception d’une interface homme-machine permet ensuite de contrôler directement le séchoir à l’aide d’un ordinateur portable. Par la suite, un algorithme de commande prédictive (NMPC pour nonlinear model predictive control), basée sur un modèle phénoménologique consolidé du FBD, est exécuté en boucle sur ce même ordinateur. L’objectif est d’atteindre une consigne précise de teneur en eau en fin de séchage tout en contraignant la température des particules ainsi qu’en diminuant le temps de lot. De plus, la consommation énergétique du FBD est explicitement incluse dans la fonction objectif du NMPC. En comparant à une technique d’opération typique en industrie (principalement en boucle ouverte), il est démontré que le temps de séchage et la consommation énergétique peuvent être efficacement gérés sur le procédé pilote tout en limitant plusieurs problèmes d’opération comme le sous-séchage, le surséchage ou le surchauffage des granules.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le rôle intégratif que la Cour de justice des Communautés européennes (CJCE) a joué dans la construction européenne est bien connu et très documenté. Ce qui l'est moins ce sont les raisons qui l'ont motivé, et le motivent encore. Si certains se sont déjà penchés sur cette question, un aspect a néanmoins été complètement négligé, celui de l'influence qu'a pu avoir à cet égard le contexte conjoncturel sur la jurisprudence communautaire et plus précisément sur l'orientation que la Cour a choisi de lui donner. Dans ce cadre, les auditoires de la Cour ont un rôle déterminant. Pour s'assurer d'une bonne application de ses décisions, la Cour est en effet amenée à prendre en considération les attentes des États membres, des institutions européennes, de la communauté juridique (tribunaux nationaux, avocats généraux, doctrine et praticiens) et des ressortissants européens (citoyens et opérateurs économiques). Aussi, à la question du pourquoi la CJCE décide (ou non) d'intervenir, dans le domaine de la libre circulation des marchandises, en faveur de l'intégration économique européenne, j'avance l'hypothèse suivante: l'intervention de la Cour dépend d'une variable centrale : les auditoires, dont les attentes (et leur poids respectif) sont elles-mêmes déterminées par le contexte conjoncturel. L'objectif est de faire ressortir l'aspect plus idéologique de la prise de décision de la Cour, largement méconnu par la doctrine, et de démontrer que le caractère fluctuant de la jurisprudence communautaire dans ce domaine, et en particulier dans l'interprétation de l'article 28 du traité CE, s'explique par la prise en compte par la Cour des attentes de ses auditoires, lesquels ont majoritairement adhéré à l'idéologie néolibérale. Afin de mieux saisir le poids - variable - de chaque auditoire de la Cour, j'apprécierai, dans une première partie, le contexte conjoncturel de la construction européenne de 1990 à 2006 et notamment le virage néolibéral que celle-ci a opéré. L'étude des auditoires et de leur impact sur la jurisprudence fera l'objet de la seconde partie de ma thèse. Je montrerai ainsi que la jurisprudence communautaire est une jurisprudence « sous influence », essentiellement au service de la réalisation puis de l'approfondissement du marché intérieur européen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le béluga du Saint-Laurent est une espèce menacée au Canada et protégée par la Loi sur les espèces en péril du Canada. La détermination des fonctions biologiques de ses habitats essentiels est nécessaire afin d’assurer le rétablissement de la population. Parcs Canada a entamé en 2009 un suivi des proies du béluga dans deux de ses aires de fréquentation intensive situées dans le Parc marin du Saguenay–Saint-Laurent : l’embouchure de la rivière Saguenay et la baie Sainte-Marguerite. L’étude de l’abondance et de la distribution des proies est réalisée par sondage hydroacoustique le long de transects à l’aide d’un échosondeur multifréquences. Un protocole d’observations systématiques du béluga est mené simultanément aux sondages hydroacoustiques à partir de sites terrestres. Le premier objectif de cette étude est de développer la méthodologie concernant le traitement, la classification et la cartographie des données hydroacoustiques échantillonnées. L’objectif principal consiste à déterminer si l’abondance et la distribution des proies pélagiques ont une influence sur l’utilisation de ces deux habitats par le béluga. La cartographie de la biomasse relative de poissons a été réalisée pour la couche de surface, la couche en profondeur et pour l’ensemble de la colonne d’eau par krigeage ordinaire pour les deux habitats pour les 29 transects. À la baie Sainte-Marguerite, le nombre de bélugas observés augmente avec la biomasse relative des proies en surface et en profondeur. À l’embouchure de la rivière Saguenay, les résultats n’ont pas été concluants. Les résultats suggèrent que l’alimentation pourrait être l’une des fonctions biologiques de la baie Sainte-Marguerite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La rétine est constituée de plusieurs types de neurones incluant les cellules amacrines, ganglionnaires, bipolaires et les photorécepteurs. Les photorécepteurs, qui englobent les cônes et les bâtonnets, sont des neurones sensoriels hautement spécialisés qui permettent la conversion de la lumière en signaux électriques par le mécanisme de phototransduction. Les mécanismes moléculaires par lesquels les progéniteurs rétiniens (RPCs) se différencient en différents neurones spécialisés comme les photorécepteurs sont encore peu connus. Le gène Polycomb Bmi1 appartient à la famille des gènes Polycomb qui forment des complexes multimériques impliqués dans la répression de l’expression génique via le remodelage de la chromatine. Au niveau biologique, le gène Bmi1 régule, entre autre, le contrôle de la prolifération cellulaire, le métabolisme des radicaux libres, et la réparation de l’ADN. Récemment, il a été démontré que Bmi1 joue un rôle critique dans la prolifération et l’auto-renouvellement d’un groupe de RPCs immatures. De plus, Bmi1 est essentiel au développement post-natal de la rétine. L'objectif de cette étude est d'analyser le rôle de Bmi1 dans le développement et la survie des photorécepteurs chez la souris. Nos résultats révèlent un phénotype de dégénérescence des photorécepteurs de types cônes chez notre modèle de souris déficiente pour Bmi1. Les bâtonnets sont insensibles à la mutation. De plus, Bmi1 est exprimé de façon prédominante dans les cônes. Nos expériences de culture de cellules rétiniennes suggèrent que le phénotype est cellule-autonome. Par ailleurs, la co-délétion du gène Chk2, membre de la réponse aux dommages à l'ADN, permet de ralentir la progression du phénotype. Les rétines Bmi1-/- et Bmi1-/-Chk2-/- présentent une augmentation importante des dommages oxydatifs à l'ADN. Ces résultats suggèrent que le stress oxydatif pourrait jouer un rôle important dans la survie des cônes. L'étude du rôle du gène Polycomb Bmi1 dans les photorécepteurs est importante pour une meilleure compréhension des mécanismes contribuant à la survie des cônes et pourrait mener à la découverte de nouveaux traitements des maladies dégénératives des cônes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le virus de l'immunodéficience humaine (VIH) est à l’origine d’une infection chronique, elle-même responsable du développement du syndrome d'immunodéficience acquise (SIDA), un état de grande vulnérabilité où le corps humain est à la merci d’infections opportunistes pouvant s’avérer fatales. Aujourd’hui, 30 ans après la découverte du virus, même si aucun vaccin n’a réussi à contrôler la pandémie, la situation s’est grandement améliorée. Conséquemment à l’arrivée de traitements antirétroviraux hautement actifs (HAART) à la fin des années 1990, la mortalité associée au VIH/SIDA a diminué et un plus grand nombre de personnes vivent maintenant avec l'infection. La présente thèse avait pour objectif d’aborder trois situations problématiques, en dépit de l’efficacité reconnue des HAART, plus particulièrement la faible charge virale persistante (LLV) et sa relation avec l’échec virologique, ainsi que les effets de certains antirétroviraux (ARV) sur les fonctions rénale et hépatique. Les objectifs précis étaient donc les suivants : 1) étudier le risque d’échec virologique à long terme chez les patients sous HAART dont la charge virale est indétectable comparativement aux patients affichant une LLV persistante; 2) évaluer sur le long terme la perte de fonction rénale associée à la prise de ténofovir (TDF) 3) étudier sur le long terme l'hyperbilirubinémie associée à la prise d’atazanavir (ATV) et ses autres déterminants possibles. Afin d’atteindre les trois objectifs susmentionnés, une cohorte de 2 416 patients atteints du VIH/SIDA, suivis depuis juillet 1977 et résidant à Montréal, a été utilisée. Pour le premier objectif, les résultats obtenus ont montré un risque accru d’échec virologique établi à >1000 copies/ml d’ARN VIH chez tous les patients qui présentaient une LLV persistante de différentes catégories durant aussi peu que 6 mois. En effet, on a observé qu’une LLV de 50-199 copies/ml persistant pendant six mois doublait le risque d’échec virologique (Hazard ratio (HR)=2,22, Intervalle de confiance (CI) 95 %:1,60–3,09). Ces résultats pourraient modifier la façon dont on aborde actuellement la gestion des patients affichant une LLV, et plus particulièrement une LLV de 50-199 copies/ml, pour laquelle aucune recommandation clinique n’a encore été formulée en raison du manque de données. Pour le deuxième objectif, on a observé une augmentation du risque de perte de fonction rénale de l’ordre de 63 % (HR=1,63; 95% CI:1,26–2,10) chez les patients sous TDF comparativement aux patients traités avec d’autres ARV. La perte de fonction rénale directement attribuable à la prise de TDF, indique que cette perte est survenue au cours des premières années de l’exposition du patient au médicament. D’une perspective à long terme, cette perte est considérée comme modérée. Enfin, pour ce qui est du troisième objectif, on a constaté que l’incidence cumulative d’hyperbilirubinémie était très élevée chez les patients sous ATV, mais que cette dernière pouvait régresser lorsque l’on mettait fin au traitement. L’hyperbilirubinémie à long terme observée avec la prise d’ATV n’a été associée à aucun effet néfaste pour la santé. Dans l’ensemble, la présente thèse a permis de mieux comprendre les trois situations problématiques susmentionnées, qui font actuellement l’objet de débats au sein de la communauté scientifique, et d’éclairer sous un jour nouveau la gestion des patients séropositifs sous traitement médicamenteux.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La pathologie de la fibrose kystique (FK) est causée par des mutations dans le gène codant pour le canal CFTR. La mutation la plus commune est la délétion du résidu Phe508 (∆F508), qui entraîne un mauvais repliement et la dégradation de la protéine mutée. Ainsi, l’absence du CFTR cause un dysfonctionnement du transport ionique et liquidien qui altère le phénomène de clairance mucociliaire. Il en résulte une accumulation de mucus visqueux obstruant les voies aériennes favorisant une colonisation bactérienne, spécialement par P. aeruginosa, et une inflammation chronique. Ces phénomènes entraînent des lésions épithéliales et un remodelage des voies aériennes. Selon nos analyses ultrastructurales de poumons issus de patients FK au moment de la transplantation, certaines zones de l’épithélium FK montrait des signes de d’initiation des processus de réparation. Malgré cela, un dommage épithélial progressif est observé chez les patients FK et il apparaît évident que les processus de réparation sont insuffisants pour permettre le rétablissement de l’intégrité épithéliale. Le principal objectif de mon étude était d’étudier le rôle du CFTR dans les mécanismes de réparation de l’épithélium FK et de déterminer l’impact de la correction du CFTR sur la réparation épithéliale et ce, en condition aseptique et en présence d’infection. Mes travaux montrent que l’épithélium des voies aériennes FK présente un défaut de réparation, associé, du moins en partie, à l’absence d’un CFTR fonctionnel. De plus, nous avons démontré pour la première fois que l’application du correcteur du CFTR VRT-325 permettait, non seulement, la maturation du CFTR, mais également une amélioration de la capacité des monocouches de cellules des voies aériennes FK à se réparer. D’autre part, nous avons montré que la présence du filtrat bactérien de P. aeruginosa (PsaDM) altérait non seulement l’expression et la fonction du CFTR, mais également les processus de réparation épithéliale. Enfin, nos résultats montrent que l’infection affecte la maturation du CFTR induite par le VRT-325 et diminue les effets bénéfiques du VRT-325 sur la réparation épithéliale. Mes travaux permettent de mieux comprendre le rôle du CFTR dans les processus de réparation de l’épithélium FK et de proposer une nouvelle approche thérapeutique visant à promouvoir la régénération épithéliale chez les patients FK afin de tenter de stabiliser leur état, malgré l’effet délétère de la composante infectieuse.