445 resultados para Commande optimale linéaire-quadratique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question du développement en Afrique a été perçue, dès 1962, par l’agronome René Dumont, comme le fait d’une occasion perdue. Mais peu à peu, ce diagnostic lucide a fait l’objet d’une vulgate colportée jusque dans les salons diplomatiques et enceintes officielles du développement international, de Washington à Paris en passant par Londres et Ottawa. Sujette à toutes les complaisances, la critique du développement international est elle-même devenue une « occasion perdue ». Mais en remontant la piste historique, on constate que les séquelles postcoloniales, tant politiques qu’économiques, ont façonné le contexte dans lequel les Africains se sont vus durablement privés de l’occasion de prendre en main leur destin. C’est ainsi que la structure économique extravertie et le poids d’une dette insolvable ont projeté plus profondément encore les pays africains dans la dépendance et la tutelle au monde industrialisé, en particulier à travers les programmes néolibéraux de la Banque mondiale, quelle que soit la mouture sous laquelle ils s’affichent (ajustement structurel ou lutte à la pauvreté). Dans cette veine, le critère de sélectivité dans l’aide publique au développement, mis en avant par l’institution internationale, et qu’adopte notamment le Canada, ouvre la porte aux abus de toutes sortes que commande le réalisme politique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre du cours PHT-6113

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre du cours PHT-6123 : Travail d'intégration

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adversité tôt dans la vie est associée au développement de symptômes anxieux pouvant perdurer jusqu’à l’âge adulte (Casey et el, 2010, Pine 2003). Des études chez l’adulte suggèrent que ces liens pourraient être associés à des altérations du « circuit de la peur » qui inclut l’amygdale, l’hippocampe antérieur, l’insula et le cortex préfrontal (Marek, 2013, Etkin & Wager, 2007). Ceci a cependant peu été étudié chez les jeunes. L’objectif principal de cette thèse était de définir les corrélats comportementaux, physiologiques, biologiques et neuronaux du traitement de la peur chez les jeunes en bonne santé, en lien ou non avec un historique d’adversité -- sous la forme de pratiques parentales coercitives -- et d’anxiété. D’abord, puisque nous nous intéressions aux pratiques parentales coercitives chroniques, nous avons examiné leur évolution et facteurs de risque, en nous concentrant sur la période de 17 à 72 mois. Un total de 2045 dyades mère-enfant ont été incluses dans une analyse de courbe de croissance latente. Nous avons démontré que la coercition maternelle suit une évolution non linéaire durant cette période et atteint un sommet à 42 mois. Les facteurs de risque relatifs à l’enfant et à la mère, mesurés à 17 mois, permettent de prédire les niveaux de coercition à 42 mois. Finalement, les prédicteurs relatifs à l’enfant et l’efficacité maternelle prédisent l’évolution des pratiques parentales coercitives entre 17 et 72 mois. Ensuite, afin de définir une méthodologie solide pour étudier le traitement de la peur chez des jeunes, nous avons adapté une tâche développée par Lau et ses collaborateurs (2008), employant des visages féminins comme stimuli. Le sexe des participants et des visages employés comme stimuli pouvant potentiellement moduler le traitement de la peur (Kret & de Gelder, 2012; McClure, 2000), nous avons étudié leurs influences respectives sur les réponses électrodermales et subjectives de peur durant le conditionnement et l’extinction de la peur chez 117 jeunes. Nous avons démontré que les stimuli féminins suscitent des réponses davantage comparables entre les garçons et les filles que les stimuli masculins. De plus, nous avons observé un effet du « même sexe », caractérisé par un conditionnement différentiel uniquement face aux stimuli du même sexe que le participant. Finalement, nous avons exploré les différences individuelles et conjointes associées aux différents niveaux de pratiques parentales coercitives et d’anxiété en termes de réponses de peur et d’activité cérébrale, durant le conditionnement et l’extinction de la peur chez 84 jeunes. Nous avons démontré que la coercition est spécifiquement associée au fonctionnement du lobe temporal médian et aux interactions entre l’amygdale et l’insula, durant le conditionnement. Durant l’extinction, les niveaux d’anxiété étaient associés à des différences spécifiques d’activation du gyrus cingulaire antérieur (GCA) dorsal. Enfin, les pratiques parentales coercitives et l’anxiété interagissent et viennent moduler la connectivité fonctionnelle amygdale - GCA rostral, l’activation d’une sous-région du GCA dorsal et les réponses subjectives de peur. Ces résultats ajoutent une pièce au casse-tête des neurosciences développementales et fournissent des pistes intéressantes pour le développement d’interventions futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.