245 resultados para Énergie éolienne
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
In a global context of climate change and energy transition, Quebec seems to be privileged, producing a large amount of cheap hydroelectricity. But aside from the established popular belief that Quebec’s energy is abundant, clean and inexpensive, Quebec’s energy future is still precarious. Within a few decades, Quebec will have to import a significant amount of electricity at a higher price than it actually produces it; the cheap exploitable hydro resources will not only get scarcer if not nonexistent; and the national hydroelectric ``cultural`` heritage even seems to quell the development of alternative energies, letting few space for local innovation coming from municipalities. While in many countries, municipalities are recognised as key figures in the energy sector, here, in Quebec, their role in the national energy system seems marginal. As main actors responsible for territorial planning, it seams that municipalities could play a more important role on Quebec’s energy scene. So they can densify their territory, develop active and collective solutions to transportation issues, they can adopt exemplary energetic habits, they can produce their own energy with wind, solar or even district heating systems. District heating and heat networks being less well know and documented in Quebec, the present study aims at explaining their low penetration level in the Quebec energy landscape. The study also attempts to understand what are the main hurdles to the implementation of district heating in Quebec’s particular energetic context. Finally, the research tries to open a discussion on the motives that could incite municipalities to adopt district heating as an energy alternative. Based on some twenty interviews with key actors of the energy and municipal sectors, the findings give some indications that the low penetration level of district heating in the Quebec municipalities could explain itself in part by : the low priced hydroelectricity, the presence of a comfortable, sufficient and pervasive Hydro-Quebec(er) culture, and also by organizational dynamic and a certain political inertia which limit the appropriation of an energy competence by local governments. In turn, the study shows that district heating solutions are more likely to develop in contexts in which : there are minimum urban or energy density levels; the development of district heating coincides with the local or regional economic structure; and where exist a mobilising local leader or local visions from a community in favor of the implementation of alternative energy systems.
Resumo:
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
Wilson Harris créée dans son roman Le palace du paon un espace de transformation intellectuelle d’une nature inédite. Cet espace se confond avec la matrice narrative de son roman. Celle-ci permet la génèse de l’identité guyanaise, non pas à partir des vestiges pré-coloniaux, ni grâce aux récits des historiens des vainqueurs mais avec des ingrédients philosophiques et littéraires de nature à transformer l’étoffe même de notre imaginaire et énergie créative. Il utilise pour ce faire la répétition comme stratégie narrative permettant de rompre la linéarité chronologique qui joint passé, présent et avenir. Ainsi faisant, il déjoue toutes les attentes de ses lecteurs les habituant ainsi à ce que Derrida appelle la logique spectrale qui permet l’influence mutuelle entre passé et présent. Ce travail est l’exploration des mécanismes de ce lâcher prise imaginatif mais aussi de toutes les voix qui répètent, à travers le temps et les continents, cet appel à l’hospitalité inconditionnelle envers l’Autre, c'est-à-dire une ouverture envers le paradoxal, le multiple, le différent en soi et en dehors de soi.
Resumo:
Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.
Resumo:
The objective of this thesis was to quantify the physiological responses such as O2 uptake (VO2), heart rate (HR) and blood lactate ([LA]) to some types of activities associated with intermittent sports in athletes. Our hypothesis is that the introduction of accelerations and decelerations with or without directional changes results in a significative increase of the oxygen consumption, heart rate and blood lactate. The purpose of the first study was to measure and compare the VO2 and the HR of 6 on-court tennis drills at both high and low displacement speeds. These drills were done with and without striking the ball, over full and half-width court, in attack or in defense mode, using backhand or forehand strokes. Results show that playing an attacking style requires 6.5% more energy than playing a defensive style (p < 0.01) and the backhand stroke required 7% more VO2 at low speed than forehand stroke (p < 0.05) while the additional cost of striking the ball lies between 3.5 and 3.0 mL kg-1 min-1. Finally, while striking the ball, the energy expanded during a shuttle displacement on half-width court is 14% higher than running on full-width court. Studies #2 and #3 focused on different modes of displacement observed in irregular sports. The objective of the second study was to measure and compare VO2, HR and [LA] responses to randomly performed multiple fractioned runs with directional changes (SR) and without directional changes (FR) to those of in-line running (IR) at speeds corresponding to 60, 70 and 80% of the subject’s maximal aerobic speed (MAS). All results show that IR’s VO2 was significantly lower than SR’s and FR’s (p<0.05). SR’s VO2 was greater than FR’s only at speeds corresponding to 80%MAS. On the other hand, HR was similar in SR and FR but significantly higher than IR’s (p<0.05). [LA] varied between 4.2 ± 0.8 and 6.6 ± 0.9 mmol L-1 without significant differences between the 3 displacement modes. Finally, the third study’s objective was to measure and compare VO2 , HR and [LA] responses during directional changes at different angles and at different submaximal running speeds corresponding to 60, 70 and 80% MAS. Subjects randomly performed 4 running protocols 1) a 20-m shuttle running course (180°) (SR), 2) an 8-shaped running course with 90-degree turns every 20 m (90R), 3) a Zigzag running course (ZZR) with multiple close directional changes (~ 5 m) at different angle values of 91.8°, 90° and 38.6°, 4) an In-line run (IR) for comparison purposes. Results show that IR’s was lower (p<0.001) than for 90R’s, SR’s and ZZR’s at all intensities. VO2 obtained at 60 and 70%MAS was 48.7 and 38.1% higher during ZZR when compared to IR while and depending on the intensity, during 90R and SR was between 15.5 and 19.6% higher than during IR. Also, ZZR’s VO2 was 26.1 and 19.5% higher than 90R’s, 26.1 and 15.5% higher than SR’s at 60 and 70%MAS. SR’s and 90R’s VO2 were similar. Changing direction at a 90° angle and at 180° angle seem similar when compared to continuous in-line running. [LA] levels were similar in all modalities. Overall, the studies presented in this thesis allow the quantification of the specific energetic demands of certain types of displacement modes in comparison with conventional forward running. Also, our results confirm that the energy cost varies and increase with the introduction of accelerations and decelerations with and without directional changes.
Resumo:
Notes d'analyse de la Chaire d’études politiques et économiques américaines
Resumo:
Note d'analyse
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.
Resumo:
La relocalisation et la dégradation médiée par ubiquitination sont utilisées par la cellule pour contrôler la localisation et l’expression de ses protéines. L’E3 ubiquitine ligase MARCH1 est impliqué dans la régulation post-traductionnelle de CMH-II et de CD86. Dans ce mémoire, on propose un rôle additionnel à MARCH1. Nos résultats expérimentaux nous portent à croire que MARCH1 pourrait moduler le métabolisme cellulaire en favorisant la relocalisation et la dégradation d’enzymes impliquées dans la glycolyse. La grande majorité des cellules utilise la phosphorylation oxydative pour générer de l’ATP en présence d’oxygène. Dans un environnement hypoxique, cette dernière est non fonctionnelle et la cellule doit utiliser la glycolyse anaérobique pour produire son ATP. Une cellule cancéreuse à des besoins énergétiques supérieurs en raison de l’augmentation de sa biomasse et de sa prolifération incontrôlée. Pour subvenir à ces besoins, elle maximise sa production d’énergie en modifiant son métabolisme; c’est l’effet Warburg. On retrouve dans les cellules immunitaires des modifications similaires au métabolisme cellulaire suite à un signal d’activation. Ici, nous montrons que la respiration mitochondriale maximale, la réserve respiratoire et la glycolyse maximale sont diminuées dans les cellules présentatrice d’antigènes qui expriment MARCH1. Nous avons montré que MARCH1 était localisable au niveau de la mitochondrie, ce qui lui permet d’interagir avec les enzymes de la glycolyse. Finalement, nous avons quantifié l’expression de Eno1 et de LDHB par Western Blot, pour montrer une augmentation de l’expression de ces enzymes en absence de MARCH1. À la lumière de ces résultats, nous discutons des avantages que procure la diminution de l’expression de MARCH1 dans un contexte inflammatoire, suite à l’activation des cellules présentatrices d’antigènes. Ce phénomène permettrait une présentation antigénique plus efficace, une augmentation de la production d’énergie et une meilleure résistance aux ROS produits lors de la réponse inflammatoire.
Resumo:
Ce mémoire propose une analyse de l’expansion internationale de la China National Petroleum Corporation (CNPC) et des impacts de cette expansion sur la sécurité énergétique de la Chine. Dans le cadre de cette recherche, l’approvisionnement énergétique d’un pays est jugé sécuritaire lorsqu’une quantité suffisante de ressources nécessaires pour combler sa demande en énergie sont présentes, disponibles et accessibles et que son approvisionnement en services énergétiques demeure fiable et abordable. La recherche comporte quatre volets. Le premier volet porte sur les étapes de la restructuration de l’industrie pétrolière chinoise depuis 1949. Celle-ci est analysée au travers des changements dans les modes de gestion des compagnies pétrolières nationales et dans leurs relations avec le gouvernement chinois. Le deuxième volet traite de la diversification et des nouvelles spécialisations de CNPC. Ces aspects sont étudiés dans le cadre d’une analyse du pourcentage de ses actifs dans chaque segment industriel (aval, intermédiaire et amont) obtenus grâce à ses rapports annuels. Le troisième volet aborde la répartition géographique des activités de la compagnie que l’on étudie à l’aide d’une analyse approfondie de près de 150 investissements, acquisitions et contrats réalisés à l’étranger entre 1992 et 2014. Le quatrième volet aborde les impacts des investissements à l’étranger de la compagnie sur la sécurité énergétique de la Chine. Ces impacts sont mesurés par l’entremise d’une analyse des flux pétroliers internationaux vers la Chine que l’on compare à la production de CNPC par pays. Ce mémoire permet de déterminer que l’expansion internationale de CNPC sert d’abord et avant tout les intérêts économiques de la compagnie. Ce sont surtout ses investissements dans la construction d’infrastructures de transport (oléoducs, gazoducs ainsi que les usines et terminaux de liquéfaction de gaz naturel liquéfié) qui apportent des bénéfices directs à la sécurité énergétique de la Chine. La contribution des investissements dans les autres secteurs est beaucoup moins systématique et dépend largement de la période au cours de laquelle ils ont été effectués.
Resumo:
We present the first measurement of photoproduction of J/psi and of two-photon production of high-mass e(+)e(-) pairs in electromagnetic (or ultra-peripheral) nucleus-nucleus interactions, using Au + Au data at root s(NN) = 200 GeV. The events are tagged with forward neutrons emitted following Coulomb excitation of one or both Au* nuclei. The event sample consists of 28 events with m(e+e-) > 2 GeV/c(2) with zero like-sign background. The measured cross sections at midrapidity of d sigma/dy (J/psi + Xn, y = 0) = 76 +/- 33 (stat) +/- 11 (syst) pb and d(2)sigma /dm dy (e(+) e(-) + Xn, y = 0) = 86 +/- 23(stat) +/- 16(syst) mu b/ (GeV/c(2)) for m(e+e-) epsilon vertical bar 2.0, 2.8 vertical bar GeV/c(2) have been compared and found to be consistent with models for photoproduction of J/psi and QED based calculations of two-photon production of e(+)e(-) pairs. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
PHENIX has measured the electron-positron pair mass spectrum from 0 to 8 GeV/c(2) in p + p collisions at root s = 200 GeV. The contributions from light meson decays to e(+)e(-) pairs have been determined based on measurements of hadron production cross sections by PHENIX. Within the systematic uncertainty of similar to 20% they account for all e(+)e(-) pairs in the mass region below similar to 1 GeV/c(2). The e(+)e(-) pair yield remaining after subtracting these contributions is dominated by semileptonic decays of charmed hadrons correlated through flavor conservation. Using the spectral shape predicted by PYTHIA, we estimate the charm production cross section to be 544 +/- 39(stat) +/- 142(syst) +/- 200(model) pb. which is consistent with QCD calculations and measurements of single leptons by PHENIX. (C) 2008 Elsevier BV. All rights reserved.
Resumo:
Cette recherche a pour but d analyser l Ecole Augusto Severo, située dans la ville de Natal dont la construction date de 1907,étant le premier établissement d enseignement primaire à l état du Rio Grande do Norte, pendant le processus de restructuration de l enseignement républicain. On cherche à comprendre la représentation de ce milieu scolaire, comme équipement urbain, dans le processus de modernisation de la ville et comme modèle éducationnel pour l état entre 1908 et 1913. En se servant des études historiographes sur le processus de modernisation de quelques villes brésiliennes et des innovations de l enseignement public primaire au pays, à la fin du dix-neuvième siècle et pendant la première décennie du vingtième siècle, comme source pour mieux saisir le contexte général et spécifique. On reconstitue les aspects économiques, sociaux et politiques déterminants des interventions publiques réalisées dans cette ville par les gouvernements républicains ayant comme obectif la construction d une ville embellie,hygiénique et civilisée. Située au quartier Ribeira, principal scénario de la modernité de Natal, l Ecole Augusto Severo est mise em relief comme symbole de civilité du paysage urbain de l époque pour le citoyen du Rio Grande do Norte. Elle disposait de services d énergie et d un tram électrique. Il y avait devant, un grand lac arborisé et une station ferroviaire. A côté, il y avait le théâtre Carlos Gomes (actuellement Alberto Maranhão). Par suíte de son imposante architecture, raffiné style éclectique,on reflète l idéal républicain des elites locales, avec une conception d espace symbolique et éducative de surveillance et contrôle, caractéristiques de l école graduée républicaine