101 resultados para Programmation multithreads
Les fonctions des places publiques montréalaises : convergences ou divergences des usages planifiés?
Resumo:
Ce mémoire s'inscrit dans la pratique de l'architecture du paysage, du design urbain et de l'urbanisme. La recherche se construit autour d'un questionnement sur le rôle des professionnels de l'aménagement dans la prise en compte des usages dans les processus de projet d'aménagement de places publiques montréalaises. Une double étude de cas et une analyse comparative permettent de voir comment se fait le passage de la programmation de la place à l’appropriation de l'espace à la faveur du travail des professionnels impliqués dans les diverses phases du projet, y compris les usages et les activités non spécifiquement prévus mais rendus possibles par la nature des aménagements réalisés. Les places Gérald-Godin (arrondissement Plateau Mont-Royal) et Simon-Valois (arrondissement Mercier-Hochelaga-Maisonneuve) ont étés choisies parce qu'elles sont situées dans des quartiers à vocation résidentielle et pour leur aménagement assez récent. Ces projets sont intéressants parce qu'ils participent à la revalorisation de leur quartier respectif et à l'apport d'espace public de qualité. Or, l'internationalisation des villes et leur marchandisation les positionnent dans un contexte de compétitivité où le renouvellement urbain est un enjeu important. Conséquemment, les principaux problèmes qui ont motive ce mémoire sont celui du renouvellement urbain, de l'identité collective et des appropriations de l'espace public.
Resumo:
Cette recherche dresse le portrait d’un nouveau genre sur le Web, la websérie. Il s’agit d’analyser la websérie québécoise afin d’en comprendre les influences, particulièrement les influences télévisuelles. Dans le premier chapitre, les théories de l’intermédialité, de la remédiation et de la convergence sont abordées afin de bien comprendre les différents types d’échanges entre les médias d’aujourd’hui. Dans le second chapitre, une vue d’ensemble, en ce qui a trait à l’histoire de la websérie au Québec, est donnée. Ensuite, quatre caractéristiques principales de la télévision sont analysées : le contexte de réception, la programmation, l’esthétique et la sérialité. Il est ensuite démontré que ces caractéristiques sont également présentes dans la websérie et il est expliqué de quelle manière elles le sont. Finalement, dans le dernier chapitre, des analyses de webséries sont faites afin d’exemplifier les différents liens entre les émissions de télévision et la websérie.
Resumo:
La méthylation de l'ADN est l'une des modifications épigénétiques au niveau des îlots CpG. Cette modification épigénétique catalysée par les ADN méthyltransférases (DNMTs) consiste en la méthylation du carbone 5' d’une cytosine ce qui aboutit à la formation de 5-méthylcytosine. La méthylation de l'ADN est clairement impliquée dans l'inactivation des gènes et dans l'empreinte génétique. Elle est modulée par la nutrition, en particulier par les donneurs de méthyle et par une restriction protéique. Ces modifications épigénétiques persistent plus tard dans la vie et conduisent au développement de nombreuses pathologies telles que le syndrome métabolique et le diabète de type 2. En fait, de nombreux gènes clés subissent une modification de leur état de méthylation en présence des composants du syndrome métabolique. Cela montre que la méthylation de l'ADN est un processus important dans l'étiologie du syndrome métabolique. Le premier travail de ce doctorat a porté sur la rédaction d’un article de revue qui a examiné le cadre central du syndrome métabolique et analyser le rôle des modifications épigénétiques susceptibles d'influer sur l'apparition du stress oxydant et des complications cardiométaboliques. D’autre part, les cellules intestinales Caco-2/15, qui ont la capacité de se différencier et d’acquérir les caractéristiques physiologiques de l'intestin grêle, ont été utilisées et traitées avec du Fer-Ascorbate pour induire un stress oxydant. Le Fer-Ascorbate a induit une augmentation significative de l’inflammation et de la peroxydation des lipides (malondialdehyde) ainsi que des altérations de de la défense antioxydante (SOD2 et GPx) accompagnées de modifications épigénétiques. De plus, la pré-incubation des cellules avec de la 5-aza-2'-désoxycytidine, un agent de déméthylation et/ou l’antioxydant Trolox a normalisé la défense antioxydante, réduit la peroxydation des lipides et prévenu l'inflammation. Ce premier travail a démontré que les modifications du redox et l’inflammation induites par le Fer-Ascorbate peuvent impliquer des changements épigénétiques, plus particulièrement des changements dans la méthylation de l’ADN. Pour mieux définir l’impact du stress oxydant au niveau nutritionnel, des cochons d’Inde âgés de trois jours ont été séparés en trois groupes : 1) Témoins: alimentation régulière; 2) Nutrition parentérale (NP) 3) H2O2 : Témoins + 350 uM H2O2. Après quatre jours, pour un groupe, les perfusions ont été stoppées et les animaux sacrifiés pour la collecte des foies. Pour l’autre groupe d’animaux, les perfusions ont été arrêtées et les animaux ont eu un accès libre à une alimentation régulière jusqu'à la fin de l’étude, huit semaines plus tard où ils ont été sacrifiés pour la collecte des foies. Ceci a démontré qu’à une semaine de vie, l'activité DNMT et les niveaux de 5'-méthyl-2'-désoxycytidine étaient inférieurs pour les groupes NP et H2O2 par rapport aux témoins. A neuf semaines de vie, l’activité DNMT est restée basse pour le groupe NP alors que les niveaux de 5'-méthyl-2'-désoxycytidine étaient plus faibles pour les groupes NP et H2O2 par rapport aux témoins. Ce travail a démontré que l'administration de NP ou de H2O2, tôt dans la vie, induit une hypométhylation de l'ADN persistante en raison d'une inhibition de l'activité DNMT. Finalement, des souris ayant reçu une diète riche en gras et en sucre (HFHS) ont été utilisées comme modèle in vivo de syndrome métabolique. Les souris ont été nourris soit avec un régime standard chow (témoins), soit avec une diète riche en gras et en sucre (HFHS) ou avec une diète HFHS en combinaison avec du GFT505 (30 mg/kg), un double agoniste de PPARα et de PPARδ, pendant 12 semaines. La diète HFHS était efficace à induire un syndrome métabolique étant donnée l’augmentation du poids corporel, du poids hépatique, des adiposités viscérales et sous-cutanées, de l’insensibilité à l’insuline, des lipides plasmatiques et hépatiques, du stress oxydant et de l’inflammation au niveau du foie. Ces perturbations étaient accompagnées d’une déficience dans l’expression des gènes hépatiques PPARα et PPARγ concomitant avec une hyperméthylation de leurs promoteurs respectifs. L’ajout de GFT505 à la diète HFHS a empêché la plupart des effets cardiométaboliques induits par la diète HFHS via la modulation négative de l’hyperméthylation des promoteurs, résultant en l’augmentation de l’expression des gènes hépatiques PPARα et PPARγ. En conclusion, GFT505 exerce des effets métaboliques positifs en améliorant le syndrome métabolique induit par l'alimentation HFHS via des modifications épigénétiques des gènes PPARs. Ensemble, les travaux de cette thèse ont démontré que le stress oxydant provenant de la nutrition induit d’importants changements épigénétiques pouvant conduire au développement du syndrome métabolique. La nutrition apparait donc comme un facteur crucial dans la prévention de la reprogrammation fœtale et du développement du syndrome métabolique. Puisque les mécanismes suggèrent que le stress oxydant agit principalement sur les métabolites du cycle de la méthionine pour altérer l’épigénétique, une supplémentation en ces molécules ainsi qu’en antioxydants permettrait de restaurer l’équilibre redox et épigénétique.
Resumo:
Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.
Resumo:
Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).
Resumo:
Thèse soutenue le 27 février 2015 devant un jury composé par Marie-Hélène Benoit-Otis (présidente, Université de Montréal), François de Médicis (Université de Montréal), Christopher Moore (Université d'Ottawa) et Michel Duchesneau (Université de Montréal).
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
La recherche des facteurs de longévité gagne en intérêt dans le contexte actuel du vieillissement de la population. De la littérature portant sur la longévité et la mortalité aux grands âges, un constat émerge : bien que les déterminants associés à la survie humaine soient multiples, l'environnement familial aurait un rôle déterminant sur la mortalité et sur l'atteinte des âges avancés. Dès lors, l'objectif de cette thèse est d'évaluer les déterminants de la survie exceptionnelle et d'examiner le rôle des aspects familiaux, en début de vie et à l'âge adulte, dans les différentiels de durée de vie. Plus spécifiquement, elle vise à : (1) examiner la similarité des âges au décès entre frères, soeurs et conjoints afin d'apprécier l'ampleur de la composante familiale de la longévité; (2) explorer, d'un point de vue intrafamilial, les conséquences à long terme sur la survie des variables non partagées issues de la petite enfance tels l'âge maternel à la reproduction, le rang de naissance et la saison de naissance; et (3) s'interroger sur le rôle protecteur ou délétère de l’environnement et du milieu familial d'origine dans l’enfance sur l'atteinte des grands âges et dans quelle mesure le statut socioéconomique parvient à médiatiser la relation. Cette analyse s'appuie sur le jumelage des recensements canadiens et des actes de décès de l’état civil québécois et emploie des données québécoises du 20e siècle issues de deux échantillons distincts : un échantillon aléatoire représentatif de la population provenant du recensement canadien de 1901 ainsi qu’un échantillon de frères et soeurs de centenaires québécois appartenant à la même cohorte. Les résultats, présentés sous forme d'articles scientifiques, ont montré, en outre, que les frères et soeurs de centenaires vivent plus longtemps que les individus appartenant aux mêmes cohortes de naissance, reflétant la contribution d'une robustesse commune, mais également celle de l'environnement partagé durant la petite enfance. Ces analyses ont également témoigné d'un avantage de survie des conjoints des centenaires, soulignant l'importance d'un même environnement à l'âge adulte (1er article). De plus, nos travaux ont mis de l'avant la contribution aux inégalités de longévité des variables biodémographiques issues de l'environnement non partagé telles que l'âge maternel à la reproduction, le rang de naissance et la saison de naissance, qui agissent et interagissent entre elles pour créer des vulnérabilités et influer sur l'atteinte des âges exceptionnels (2e article). Enfin, une approche longitudinale a permis de souligner la contribution du milieu social d'origine sur la longévité, alors que les individus issus d’un milieu socioéconomique défavorisé pour l'époque (milieu urbain, père ouvrier) vivent moins longtemps que ceux ayant vécu dans un environnement socioéconomique favorable (milieu rural, fermier), résultat d'une potentielle accumulation des avantages liée à la reproduction du statut social ou d'une programmation précoce des trajectoires de santé. L’influence est toutefois moindre pour les femmes et pour les frères de centenaires et s'exprime, dans ce cas, en partie par l'effet de la profession à l'âge adulte (3e article).
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
Ce projet de recherche a été réalisé avec la collaboration de FPInnovations. Une part des travaux concernant le problème de récolte chilien a été effectuée à l'Instituto Sistemas Complejos de Ingeniería (ISCI) à Santiago (Chili).
Resumo:
Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.