251 resultados para Algorithmes Parallèles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bibliography: p. 81-99.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de un abordaje retórico-literario, nuestro objetivo es indagar las representaciones discursivas de los elementos supersticiosos en la biografía de Nicias y en la de Dión. Tomaremos como ejemplo el eclipse de luna narrado en Nicias 23 y reiterado en Dión 24, para demostrar que mediante la repetición del ejemplo en dos contextos distintos Plutarco nos invita a reflexionar sobre la superstición de un modo más atractivo que la mera exposición teórica de doctrinas filosóficas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le byssus est un amas de fibres que les moules produisent afin de s’ancrer aux surfaces immergées sous l’eau. Ces fibres sont pourvues de propriétés mécaniques impressionnantes combinant rigidité, élasticité et ténacité élevées. De plus, elles possèdent un comportement d’auto-guérison de leurs propriétés mécaniques en fonction du temps lorsque la contrainte initialement appliquée est retirée. Les propriétés mécaniques de ces fibres sont le résultat de l’agencement hiérarchique de protéines de type copolymère blocs riches en collagène et de la présence de métaux formant des liens sacrificiels réversibles avec certains acides aminés comme les DOPA et les histidines. Bien que cette fibre soit très intéressante pour la production de matériaux grâce à son contenu élevé en collagène potentiellement biocompatible, cette ressource naturelle est traitée comme un déchet par les mytiliculteurs. L’objectif de cette thèse était de valoriser cette fibre en extrayant les protéines pour générer une nouvelle classe de matériaux biomimétiques. Un hydrolysat de protéines de byssus (BPH) riche en acides aminés chargés, i.e. ~30 % mol, et permettant de former des films a pu être généré. Lorsque solubilisé à pH 10.5, le BPH forme un hydrogel contenant des structures en triple hélice de collagène et des feuillets β anti-parallèles intra- et inter-moléculaires. Suite à l’évaporation de l’eau, le film de BPH résultant est insoluble en milieu aqueux à cause des structures secondaires très stables agissant comme points de réticulation effectifs. Les propriétés mécaniques des films de BPH sont modulables en fonction du pH. Au point isoélectrique (pI = 4.5), les interactions électrostatiques entre les charges opposées agissent comme points de réticulation et augmentent la rigidité des films et leur contrainte à la rupture sans affecter la déformation à la rupture. À pH plus élevé ou plus bas que le pI, les performances mécaniques des films sont plus faibles à cause de la répulsion entre les groupements fonctionnels de même charge qui interagissent plutôt avec les molécules d’eau et causent le gonflement de la matrice protéique des films. Le BPH contenant un nombre élevé d’acides aminés chargés et réactifs, nous avons pu réticuler les films de manière covalente à l’aide d’EDC ou de glutaraldéhyde. Les propriétés mécaniques des films sont modulables en fonction de la concentration d’EDC utilisée lors de la réticulation ou en employant du glutaraldéhyde comme agent réticulant. Les films sont à la fois plus rigides et plus forts avec un degré de réticulation élevé, mais perdent leur extensibilité à mesure que les segments libres de s’étirer lors d’une traction deviennent entravés par les points de réticulation. La réticulation augmente également la résistance à la dégradation enzymatique par la collagénase, les films les plus fortement réticulés lui étant pratiquement insensibles. La spectroscopie infrarouge montre enfin que la réticulation entraîne une transition de feuillets β anti-parallèles inter-moléculaires vers des structures de type hélices de collagène/PPII hydratées. Des liens sacrificiels ont été formés dans les films de BPH par traitement au pI et/ou avec différents métaux, i.e. Na+, Ca2+, Fe3+, afin de moduler les propriétés mécaniques statiques et d’évaluer le rôle de ces traitements sur le comportement d’auto-guérison lors de tests mécaniques cycliques avec différents temps de repos. Plus la valence des ions métalliques ajoutés augmente, plus les propriétés mécaniques statiques affichent un module, une contrainte à la rupture et une ténacité élevés sans toutefois affecter la déformation à la rupture, confirmant la formation de liens sacrificiels. Les tests mécaniques cycliques montrent que les traitements au pI ou avec Ca2+ créent des liens sacrificiels ioniques réversibles qui mènent à un processus d’auto-guérison des performances mécaniques dépendant du pH. L’ajout de Fe3+ à différentes concentrations module les performances mécaniques sur un plus large intervalle et la nature plus covalente de son interaction avec les acides aminés permet d’atteindre des valeurs nettement plus élevées que les autres traitements étudiés. Le Fe3+ permet aussi la formation de liens sacrificiels réversibles menant à l’auto-guérison des propriétés mécaniques. Les spectroscopies Raman et infrarouge confirment que le fer crée des liaisons avec plusieurs acides aminés, dont les histidines et les DOPA. Les résultats dans leur ensemble démontrent que les films de BPH sont des hydrogels biomimétiques du byssus qui peuvent être traités ou réticulés de différentes façons afin de moduler leurs performances mécaniques. Ils pourraient ainsi servir de matrices pour des applications potentielles dans le domaine pharmaceutique ou en ingénierie tissulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente deux algorithmes qui ont pour but d’améliorer la précision de l’estimation de la direction d’arrivée de sources sonores et de leurs échos. Le premier algorithme, qui s’appelle la méthode par élimination des sources, permet d’améliorer l’estimation de la direction d’arrivée d’échos qui sont noyés dans le bruit. Le second, qui s’appelle Multiple Signal Classification à focalisation de phase, utilise l’information dans la phase à chaque fréquence pour déterminer la direction d’arrivée de sources à large bande. La combinaison de ces deux algorithmes permet de localiser des échos dont la puissance est de -17 dB par rapport à la source principale, jusqu’à un rapport échoà- bruit de -15 dB. Ce mémoire présente aussi des mesures expérimentales qui viennent confirmer les résultats obtenus lors de simulations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis vingt-cinq ans, le Québec a connu dans le monde de l'éducation un nombre assez impressionnant de changements, de réformes, de mises au point et de renouvellements de programme. Du rapport Parent à l'école québécoise, notre système éducatif a vécu toutes sortes de situations qui nous ont conduits à une structure éducationnelle plus cohérente, plus apte à répondre à la majorité des besoins des citoyens et de la société. Cependant, les années 1968-1976 ont vu se développer un système d'éducation parallèle créant tout un réseau à double voie : la voie régulière et la voie de l'exceptionnel. Le rapport Celdic et le rapport Copex sont venus ébranler cette structure à double voie et les intervenants dans le monde de l'éducation ont refait une partie des devoirs élaborés è l'occasion du rapport Parent. La Commission Scolaire Régionale Blainville Deux-Montagnes n'a pas vécu à l'écart de ces changements et elle est actuellement tributaire de deux voies parallèles dans son système d'éducation. Elle refait également ses devoirs et étudie présentement la possibilité d'intégrer dans ses classes régulières les élèves qui présentent des difficultés d'adaptation et d'apprentissage et qui ont été exclus des classes régulières pour être placés sur ce que plusieurs appellent une voie d’évitement. L'intégration est devenue le sujet d'étude des comités d'école, du comité de parents et des diverses tables de gestion de la commission scolaire, tant celle des écoles que celle des divers services. En tant qu'administrateur dans une des polyvalentes de cette commission scolaire, j'aurai à prendre part aux discussions et aux études qui seront faites et j'aurai, également, à participer aux diverses prises de décisions qu'entraînera cette opération. [...]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les spirales sont des appareils de séparation gravimétrique principalement utilisés dans l’industrie du traitement du minerai de fer. La classification des particules dans la pulpe s’effectue lors de la descente dans les spires en fonction de leur taille et leur densité, des conditions d’opération et de la géométrie de la spirale. L’effet des conditions d’opération (pourcentage solide, débit d’alimentation et débit d’eau de lavage) est évalué sur la performance des spirales en utilisant une spirale WW6E installée à COREM pour traiter un minerai de fer de ArcelorMittal, Québec. Les résultats montrent l’effet dominant du débit de l’eau de lavage et son impact majeur sur les particules grossières. Un circuit fermé de trois spirales parallèles avec 3, 5 et 7 tours est utilisé afin d’évaluer l’influence du nombre de tours. Les résultats préliminaires indiquent que la spirale trois tours fonctionne bien pour le nettoyage tandis que la 7 tour est robuste pour l’ébauchage et l’épuisage.