163 resultados para Taille de la particule


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Since around twenty years, the Saguenay CMA seems to have underwent a population decline and important economic transformations, wich would have confronted citizens and local actors to a situation of a possible decline. In a context of an ageing population generalized to the whole Quebec, the Saguenay CMA can be seen as a precursor territory of the population decline phenomenon for a medium-sized city. It’s the scale and the extent of the phenomenon wich seem to have become more important. In this context, is it possible to reverse the situation from an urban planning based on growth, to a planning that takes into account the possiblity of the decrease and the ageing of the population, as well as the reorganization of econimic activities? The analysis of the actors’s speech, who are involved in planning, economic development and politics, raise the question of the difficulty to conceive the decrease of the population and the economic tranformations, not as an occasional phenomenon, but as a possibly structural phenomenon that may last over time. The subject of the decline seems to generate a form of discomfort among the actors, going even to the complete reject of the situation as a possible reality. For several, the eventuality of a generalized decline is inconceivable, the decrease can be perceived as a political failure. It appears that most of the strategies put in place to correct the situation, are based on the goal of a return to the growth. From the signs in the built framework, through the strategy of territorial marketing and municipal interventionism, until the appearance of urban brownfields, the impacts of the population decrease and the economic transformations seems, for the greater part very subtile, but to be present on the territory of the CMA. The shrinking cities phenomenon is observed in this study according to a new approach that confronts the actors’s speech, the territory reality and the analysis of the economic and demographic dynamics. It is thus an exploratory research wich tries to question the current way of thinking the urban growth.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thèse est divisée en deux parties, soit le texte principal et les annexes afin d'alléger la taille des documents.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Rwanda est un des pays Africains qui a le plus souffert des crises politiques depuis l’indépendance, surtout au cours de la décennie 1990-1999, culminant avec le génocide de 1994. Les conséquences de ces crises sur les variables économiques, démographiques et sanitaires sont nombreuses : baisse des revenus, augmentation de la mortalité, baisse du niveau d’instruction, diminution de la taille des femmes adultes. Cependant, grâce à une restructuration drastique de la gestion de l’Etat et à une aide internationale massive, le pays a réussi à recouvrer après l’an 2000 des tendances vertueuses, avec une augmentation des revenus, une baisse de la mortalité des enfants, et une baisse de la fécondité, quoique cette évolution soit entachée d’une forte augmentation des inégalités. Par contre la crise a laissé un impact durable sur le niveau d’instruction et sur la taille des femmes adultes, car les femmes qui n’ont pas été scolarisées ou ont été malnutries pendant la période de crise n’ont pas eu la possibilité de récupérer. L’analyse de la situation du Rwanda révèle donc ce qui est récupérable (les effets de période) et ce qui ne l’est pas (les effets de cohorte) après une crise majeure.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte: Le Bénin est atteint par le double fardeau nutritionnel : dans le même pays, et parfois dans le même ménage, il y a des personnes malnutries et d’autres aux prises avec des maladies chroniques. Ces conditions, au moins pour partie, peuvent être prévenues si la population est sensibilisée à de bonnes habitudes alimentaires. Pour ce faire, les professionnels de la santé ont besoin d’outils comme un guide alimentaire (GA) pour faciliter l’apprentissage de bonnes pratiques alimentaires. Ce dernier nécessite plusieurs étapes à son élaboration, dont la définition des groupes alimentaires, la présentation visuelle et la quantification des portions d'aliments. Objectif : Ce travail a eu pour but de proposer et d’homologuer des portions quotidiennes d’aliments dans chaque groupe alimentaire pour différents groupes d’âge de Béninois. Méthode : Elle consiste à : 1) Caractériser la consommation alimentaire locale; 2) Optimiser le profil moyen de consommation alimentaire quotidienne à l’aide de la programmation linéaire (PL); 3) Traduire les résultats en termes de nombre et taille de portions d’aliments de chaque groupe à consommer quotidiennement; 4) Illustrer les recommandations au moyen d’exemples de menus journaliers; 5) Homologuer le prototype du GA avec des experts béninois. La PL a permis de déterminer les choix d’aliments et quantités optimales à recommander à partir des enquêtes transversales récentes et des recommandations nutritionnelles de l’OMS. Résultats : Les quantités et portions d'aliments recommandées à la consommation ont été déterminées. Les résultats ont été partagés avec les personnes-ressources en nutrition au Bénin. Le premier prototype du GA a été développé pour restitution subséquente aux autorités du Bénin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs recherches sont effectuées sur la laitue commercialisée (Lactuca sativa L.), afin d’améliorer sa résistance aux ravageurs. L’objectif de cette étude est d’examiner les impacts de la résistance de la laitue sur le puceron de la laitue, Nasonovia ribisnigri (Mosley) (Hemiptera : Aphididae) et son parasitoïde, Aphidius ervi Haliday (Hymenoptera: Braconidae). La résistance de la laitue affecte négativement la valeur adaptative du puceron en augmentant sa mortalité et son temps de développement et en diminuant sa fécondité, sa taille et son poids. Cet impact sur la valeur adaptative du puceron affecte aussi négativement le parasitoïde qui s'y développe en diminuant le pourcentage d’émergence, la taille et le poids des adultes, et en diminuant la fécondité des femelles. La femelle parasitoïde estime de manière absolue la qualité de ses hôtes puisqu’elle peut discriminer entre des hôtes de bonne et de faible qualité, sans expérience préalable. L’acceptation des hôtes de bonne qualité est similaire lorsqu’ils sont présentés successivement à la femelle; l’estimation de la valeur des hôtes est donc adéquate dès la première rencontre. Cependant, cet estimé absolu est modifié par l'expérience, puisque la femelle peut changer son exploitation selon la qualité des agrégats rencontrés. Lorsque des hôtes de basse qualité sont présentés successivement, l’acceptation de la femelle augmente. Accepter des hôtes de mauvaise qualité pour l’oviposition peut être préférable que de risquer de ne pas pondre tous ses œufs. L’utilisation d’une estimation absolue et relative par A. ervi peut mener à une exploitation optimale des agrégats.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’enseignement des sciences et de la technologie (ST) est dans une condition précaire dans les écoles primaires du Québec. Plusieurs recherches ont démontré que les technologies de l’information et de la communication (TIC) peuvent aider les enseignants à favoriser les apprentissages des élèves dans certaines matières dont en ST (Baron, 2001; Becta, 2005; Tardif, 1998). D’ailleurs, Linard (2001) maintient que les TIC, dans le domaine des apprentissages, peuvent faciliter l’exécution de plusieurs tâches cognitives telles qu’agir, interagir, s’informer, explorer, échanger, expérimenter, créer, etc. Cette recherche décrit les pratiques d’enseignement en ST d’enseignants Maîtres-TIC (MTIC) lors de l’intégration des TIC. Nous avons opté pour une recherche heuristique à méthodologie mixte. Des enseignants MTIC et des étudiants de quatrième année MTIC ont répondu à un questionnaire en ligne. Ensuite, une enseignante a été interviewée pour dresser un portrait plus détaillé des pratiques d’enseignement. À l’aide des données obtenues, nous avons réussi à créer une liste d’avantages de l’intégration des TIC en enseignement des ST ainsi qu’une liste des difficultés liées à cette intégration. Une liste des différentes applications TIC réalisées en enseignement des ST par les enseignants et les étudiants questionnés a aussi été ressortie des données de la recherche. De plus, une liste des avantages de la formation Maître-TIC de l’Université de Montréal a été créée en fonction des données recueillies. Puis, nous précisons quelques apports de cette recherche relatifs aux objectifs de départ et à l’évolution de la formation MTIC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’Urgence négative est un trait caractéristique du trouble de personnalité limite. Cependant ce modèle des traits ne permet pas d’expliquer les variétés des formes d’expression ni le niveau de sévérité de gestes impulsifs, qu’ils soient dirigés contre soi ou contre autrui. L’intégration du modèle des relations d’objet à celui des traits offre une meilleure compréhension de cette variabilité. Dans la théorie des relations d’objet, la diffusion de l’identité est spécifique aux organisations limites de la personnalité. Elle est caractérisée par un manque d’intégration des représentations de soi et d’autrui à cause d’une séparation excessive des affects positifs et négatifs investis dans les images de soi et d’autrui. Elle est associée à un manque d’intégration des structures psychiques du Moi et du Surmoi. Le niveau de l’intégration de l’identité agirait en modulant la relation en un trait d’urgence négative élevé et l’expression des gestes impulsifs. Cette étude, réalisée auprès d’étudiants, était la première à tester une telle hypothèse. Bien qu’elle n’ait pas permis de démontrer une telle relation de modération, compte tenu de certaines limites, il apparaît nécessaire de réévaluer ce modèle modérateur au sein d’un d’échantillon de plus grande taille.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte et objectifs. Ce mémoire propose un modèle conceptuel écologique afin de mieux comprendre la violence dans les écoles. Les objectifs de cette recherche sont de ; 1) estimer l’effet des facteurs individuels, contextuels et environnementaux sur le risque de victimisation, 2) vérifier la présence d’interactions entre les différents facteurs. Méthodologie. Les élèves de 16 écoles primaires de la grande région métropolitaine de Montréal ont pris part à un sondage auto-révélé en lien avec différentes dimensions liées à la victimisation en milieu scolaire. Des analyses descriptives ont été menées, dans un premier temps, pour dresser le portrait de la violence en milieu scolaire. Dans un second temps, l’emploi d’un modèle linéaire hiérarchique généralisé (MLHG) a permis d’estimer les effets de variables propres à l’individu, au contexte et à l’environnement sur le risque de victimisation. Résultats. Les résultats aux analyses multiniveaux montrent que des variables individuelles, contextuelles et environnementales influent sur la probabilité d’être victime de violence verbale, physique et dans les médias sociaux. Ainsi, les élèves les plus délinquants sont aussi ceux qui rapportent le plus d’antécédents de victimisation. Toutefois, ces résultats ne sont pas entièrement imputables aux caractéristiques des individus. Le risque de victimisation est atténué lorsque les « gardiens » interviennent pour mettre un terme au conflit et que les victimes se défendent. Enfin, le risque de victimisation est moins élevé dans les écoles où il y a un grand nombre d’élèves. Interprétation. Les résultats suggèrent que plusieurs facteurs qui ne sont pas liés aux victimes et aux délinquants permettent de mieux comprendre le processus de victimisation en milieu scolaire. Le rôle des gardiens de même que la taille des écoles sont des éléments centraux à la compréhension du passage à l’acte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire de recherche et création, incluant une partie essai et un texte de création.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La warfarine est un médicament anticoagulant possédant un faible index thérapeutique et une grande variabilité intra et interindividuelle dans la réponse au traitement. Les facteurs déterminants de la réponse à la warfarine ne sont pas tous connus et la présente étude vise à tester l'hypothèse que la pratique régulière d’activité physique puisse y être associée. Nous avons évalué si l’activité physique, mesurée à l’aide de 2 questionnaires différents, était associée à la dose de warfarine et au pourcentage de temps passé à l'intérieur de l'intervalle thérapeutique ciblé (time in therapeutic range : TTR). L’étude a été menée chez les 1064 participants de la Cohorte warfarine de l’Institut de Cardiologie de Montréal (ICM) et chez 618 utilisateurs de warfarine issus de la Biobanque de l’ICM. Nous avons trouvé que, dans les deux cohortes, les patients actifs nécessitaient une dose hebdomadaire moyenne plus élevée que les patients inactifs. L’association perdurait lorsque le modèle statistique était ajusté pour différentes variables connues pour influencer la réponse à la warfarine, telles que le génotype aux gènes CYP2C9 et VKORC1, l’âge, la taille, le poids, et l’INR ciblé. L’INR ciblé est décidé par le médecin et il correspond généralement à 2,0 – 3,0 ou 2,5 – 3,5. Les patients de la Cohorte warfarine avaient aussi plus de chances d’avoir un TTR inférieur à 60%, donc d’être moins stables. La pratique régulière d’activité physique est donc un facteur déterminant de la dose thérapeutique de warfarine et la pratique d'activité physique intensive est associée à un TTR plus faible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire revient sur la première tutelle de la Ville de Montréal, imposée par le gouvernement provincial de 1918 à 1921. Pour l’occasion, le Lieutenant-gouverneur du Québec nomme cinq administrateurs afin de gérer les affaires courantes de la municipalité. Peu connu des historiens et du public, cet événement suscite des changements profonds dans les structures politiques et administratives de la Ville qui laissent des empreintes dans la vie quotidienne actuelle des Montréalais. Puisqu’ils ne sont pas redevables devant la population, les commissaires mettent en œuvre plusieurs réformes souvent impopulaires qui permettent de rétablir l’équilibre budgétaire de la Ville. Au passage, ils tentent de moderniser l’administration municipale dont le fonctionnement est jusque-là incompatible avec les réalités d’une population grandissante et d’un espace urbain accru par les nombreuses annexions. Notre étude souligne les réformes implantées par la Commission administrative au niveau de la fiscalité, de l’organisation des services municipaux et des politiques d'urbanisme. Elles s’inspirent de réformes mises en œuvre dans plusieurs villes nord-américaines de grande taille. Durant leur mandat, les nouveaux administrateurs cherchent à imposer un modèle d’administration s’inspirant de grandes entreprises privées et réussissent à réduire de manière substantielle le déficit de la Ville. Enfin, une attention particulière est accordée à la fin du mandat de la Commission administrative et au régime administratif qui lui fait suite.