870 resultados para Integrated circuits Ultra large scale integration
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Wind energy has obtained outstanding expectations due to risks of global warming and nuclear energy production plant accidents. Nowadays, wind farms are often constructed in areas of complex terrain. A potential wind farm location must have the site thoroughly surveyed and the wind climatology analyzed before installing any hardware. Therefore, modeling of Atmospheric Boundary Layer (ABL) flows over complex terrains containing, e.g. hills, forest, and lakes is of great interest in wind energy applications, as it can help in locating and optimizing the wind farms. Numerical modeling of wind flows using Computational Fluid Dynamics (CFD) has become a popular technique during the last few decades. Due to the inherent flow variability and large-scale unsteadiness typical in ABL flows in general and especially over complex terrains, the flow can be difficult to be predicted accurately enough by using the Reynolds-Averaged Navier-Stokes equations (RANS). Large- Eddy Simulation (LES) resolves the largest and thus most important turbulent eddies and models only the small-scale motions which are more universal than the large eddies and thus easier to model. Therefore, LES is expected to be more suitable for this kind of simulations although it is computationally more expensive than the RANS approach. With the fast development of computers and open-source CFD software during the recent years, the application of LES toward atmospheric flow is becoming increasingly common nowadays. The aim of the work is to simulate atmospheric flows over realistic and complex terrains by means of LES. Evaluation of potential in-land wind park locations will be the main application for these simulations. Development of the LES methodology to simulate the atmospheric flows over realistic terrains is reported in the thesis. The work also aims at validating the LES methodology at a real scale. In the thesis, LES are carried out for flow problems ranging from basic channel flows to real atmospheric flows over one of the most recent real-life complex terrain problems, the Bolund hill. All the simulations reported in the thesis are carried out using a new OpenFOAM® -based LES solver. The solver uses the 4th order time-accurate Runge-Kutta scheme and a fractional step method. Moreover, development of the LES methodology includes special attention to two boundary conditions: the upstream (inflow) and wall boundary conditions. The upstream boundary condition is generated by using the so-called recycling technique, in which the instantaneous flow properties are sampled on aplane downstream of the inlet and mapped back to the inlet at each time step. This technique develops the upstream boundary-layer flow together with the inflow turbulence without using any precursor simulation and thus within a single computational domain. The roughness of the terrain surface is modeled by implementing a new wall function into OpenFOAM® during the thesis work. Both, the recycling method and the newly implemented wall function, are validated for the channel flows at relatively high Reynolds number before applying them to the atmospheric flow applications. After validating the LES model over simple flows, the simulations are carried out for atmospheric boundary-layer flows over two types of hills: first, two-dimensional wind-tunnel hill profiles and second, the Bolund hill located in Roskilde Fjord, Denmark. For the twodimensional wind-tunnel hills, the study focuses on the overall flow behavior as a function of the hill slope. Moreover, the simulations are repeated using another wall function suitable for smooth surfaces, which already existed in OpenFOAM® , in order to study the sensitivity of the flow to the surface roughness in ABL flows. The simulated results obtained using the two wall functions are compared against the wind-tunnel measurements. It is shown that LES using the implemented wall function produces overall satisfactory results on the turbulent flow over the two-dimensional hills. The prediction of the flow separation and reattachment-length for the steeper hill is closer to the measurements than the other numerical studies reported in the past for the same hill geometry. The field measurement campaign performed over the Bolund hill provides the most recent field-experiment dataset for the mean flow and the turbulence properties. A number of research groups have simulated the wind flows over the Bolund hill. Due to the challenging features of the hill such as the almost vertical hill slope, it is considered as an ideal experimental test case for validating micro-scale CFD models for wind energy applications. In this work, the simulated results obtained for two wind directions are compared against the field measurements. It is shown that the present LES can reproduce the complex turbulent wind flow structures over a complicated terrain such as the Bolund hill. Especially, the present LES results show the best prediction of the turbulent kinetic energy with an average error of 24.1%, which is a 43% smaller than any other model results reported in the past for the Bolund case. Finally, the validated LES methodology is demonstrated to simulate the wind flow over the existing Muukko wind farm located in South-Eastern Finland. The simulation is carried out only for one wind direction and the results on the instantaneous and time-averaged wind speeds are briefly reported. The demonstration case is followed by discussions on the practical aspects of LES for the wind resource assessment over a realistic inland wind farm.
Resumo:
Tämän diplomityötutkimuksen tarkoituksena on luoda markkinaälyyn (MI) erikoistunut funktio suurelle, globaalisti toimivalle B2B-yritykselle. Tämän päivän muut-tuvilla markkinoilla, teollisuusyrityksen on oltava markkinalähtöinen selviytyäkseen. Markkinatiedon tehokas hyödyntäminen ei pelkästään luo tietoa markkinoista, vaan tuottaa kilpailukykyistä tietoa ja toimii strategisen päätöksenteon tukena pitkällä aikavälillä. Tämä tutkimus on kvalitatiivinen toimintatutkimus, joka sisältää kirjallisuuskat-sauksen, yritystapaustutkimuksen sekä syväanalyysin yrityksen MI-ympäristöstä. Kirjallisuuskatsaus pitää sisällään teoriaa liittyen markkinaälyyn useassa eri kon-tekstissa, asiakassuhteeseen, sekä prosessinmallintamiseen. Empiiriseen osaa seuraa tutkimusmenetelmäkappale, joka sisältää kaksivaiheisen tutkimuksen mukaan lu-kien 20 päällikkötason haastattelua sekä yhden laaja-alaisen työryhmätapaamisen. Työn tuloksena syntyy kolmivaiheinen tiekartta, jonka tarkoitus on toimia pohjana uuden MI-funktion rakentamiselle Case-yrityksessä. Tuloksen mukaan MI-funktio tulisi sijoittaa yrityksen asiakasrajapintaan sekä tukea yksiköiden välistä integraa-tiota. Markkinaälyn jakaminen yrityksen sisällä vaatii käytäntöjen, tarpeiden ja ta-voitteiden systemaattista viestintää eri organisaatiotasoille, jotta yritys voi edelleen saada asiakkaalta tarpeeseen vastaavaa tietoa. Viestintä yrityksen ja asiakkaan välil-lä on oltava molemminpuolista, jotta tulokset voisivat parantaa asiakassuhdetta. Kun asiakassuhde paranee, yritys voi oppia asiakkaalta arvokasta tietoa, markkinaälyä.
Resumo:
In the field of molecular biology, scientists adopted for decades a reductionist perspective in their inquiries, being predominantly concerned with the intricate mechanistic details of subcellular regulatory systems. However, integrative thinking was still applied at a smaller scale in molecular biology to understand the underlying processes of cellular behaviour for at least half a century. It was not until the genomic revolution at the end of the previous century that we required model building to account for systemic properties of cellular activity. Our system-level understanding of cellular function is to this day hindered by drastic limitations in our capability of predicting cellular behaviour to reflect system dynamics and system structures. To this end, systems biology aims for a system-level understanding of functional intraand inter-cellular activity. Modern biology brings about a high volume of data, whose comprehension we cannot even aim for in the absence of computational support. Computational modelling, hence, bridges modern biology to computer science, enabling a number of assets, which prove to be invaluable in the analysis of complex biological systems, such as: a rigorous characterization of the system structure, simulation techniques, perturbations analysis, etc. Computational biomodels augmented in size considerably in the past years, major contributions being made towards the simulation and analysis of large-scale models, starting with signalling pathways and culminating with whole-cell models, tissue-level models, organ models and full-scale patient models. The simulation and analysis of models of such complexity very often requires, in fact, the integration of various sub-models, entwined at different levels of resolution and whose organization spans over several levels of hierarchy. This thesis revolves around the concept of quantitative model refinement in relation to the process of model building in computational systems biology. The thesis proposes a sound computational framework for the stepwise augmentation of a biomodel. One starts with an abstract, high-level representation of a biological phenomenon, which is materialised into an initial model that is validated against a set of existing data. Consequently, the model is refined to include more details regarding its species and/or reactions. The framework is employed in the development of two models, one for the heat shock response in eukaryotes and the second for the ErbB signalling pathway. The thesis spans over several formalisms used in computational systems biology, inherently quantitative: reaction-network models, rule-based models and Petri net models, as well as a recent formalism intrinsically qualitative: reaction systems. The choice of modelling formalism is, however, determined by the nature of the question the modeler aims to answer. Quantitative model refinement turns out to be not only essential in the model development cycle, but also beneficial for the compilation of large-scale models, whose development requires the integration of several sub-models across various levels of resolution and underlying formal representations.
Resumo:
Enterprise resource planning (ERP) software is used to combine all the functions happening inside the organization with the help of one software. All the data is centralized which makes it easy to manage information for all participants. The literature on ERP is studied thoroughly the whole process of adoption till the implementation and final evaluations. But studies that focus on small and medium sized enterprises are limited in number when compared to the large scale enterprises. In case of Pakistan, research is very limited. In this thesis, the author tries to analyze the current status of SMEs usage of ERP system. The benefits obtained and challenges faced by SMEs of Pakistan are studied. Framework presented by Shang and Seddon (2000) is used to understand the benefits obtained by the SMEs in Pakistan. This is a comprehensive framework that classifies the benefits obtained by the ERP adoption, into five categories: operational benefits, managerial benefits, Strategic benefits, IT benefits, and Organizational benefits. The results show that SMEs of Pakistan are also getting many benefits after adoption of ERP. Most of the firms had implemented SAP software. Operational benefits were mentioned by all the firms. The most important benefits were report generation, quick access to critical information, better product and cost planning. Respondents also mentioned that they had reduced corruption as a result of ERP implementation. It is also an important benefit considering high corruption rate in Pakistan. Along with benefits, challenges faced by Pakistani SMEs included infrastructure problems like electricity, difficulties with integration of one module with other module, costs of adoption and lack of skilled ERP consultants. Further studies in this regard can be conducted on cloud based ERP which is fast growing all around the world.
Resumo:
Tässä työssä esitellään aurinkosähköjärjestelmien rakenne, toiminta ja niille sopivia käyttökohteita. Työn tavoitteena on arvioida teknillistaloudellisesti rakennukseen integroitujen aurinkosähköjärjestelmien soveltuvuutta Pohjoismaisiin olosuhteisiin. Tekninen arviointi toteutetaan pohjautuen kirjallisuuteen, käytännön analysointiin ja simuloituihin tuloksiin. Taloudellinen arviointi sisältää lisäksi myös laskennallista analysointia. Aurinkosähköjärjestelmän toiminnan arvioinnissa päädyttiin hyödyntämään aiemmin aurinkosähköjärjestelmien suorituskyvystä julkaistuja materiaaleja. Käytössä olevien resurssien rajallisuus ei mahdollistanut tarpeeksi laajamittaisten suorituskykytestien toteuttamista. Teknisen arvioinnin perusteella saatiin selville merkittävimpien tekijöiden vaikutus rakennukseen integroitujen aurinkosähköjärjestelmien toimintaan. Teknillistaloudellisen arvioinnin perusteella julkisivumateriaalien korvaaminen aurinkopaneeleilla tulee harkita tapauskohtaisesti. Työ sisältää myös katsauksen olemassa olevista teknisistä ratkaisuista.
Resumo:
Part I: Ultra-trace determination of vanadium in lake sediments: a performance comparison using O2, N20, and NH3 as reaction gases in ICP-DRC-MS Thermal ion-molecule reactions, targeting removal of specific spectroscopic interference problems, have become a powerful tool for method development in quadrupole based inductively coupled plasma mass spectrometry (ICP-MS) applications. A study was conducted to develop an accurate method for the determination of vanadium in lake sediment samples by ICP-MS, coupled with a dynamic reaction cell (DRC), using two differenvchemical resolution strategies: a) direct removal of interfering C10+ and b) vanadium oxidation to VO+. The performance of three reaction gases that are suitable for handling vanadium interference in the dynamic reaction cell was systematically studied and evaluated: ammonia for C10+ removal and oxygen and nitrous oxide for oxidation. Although it was able to produce comparable results for vanadium to those using oxygen and nitrous oxide, NH3 did not completely eliminate a matrix effect, caused by the presence of chloride, and required large scale dilutions (and a concomitant increase in variance) when the sample and/or the digestion medium contained large amounts of chloride. Among the three candidate reaction gases at their optimized Eonditions, creation of VO+ with oxygen gas delivered the best analyte sensitivity and the lowest detection limit (2.7 ng L-1). Vanadium results obtained from fourteen lake sediment samples and a certified reference material (CRM031-040-1), using two different analytelinterference separation strategies, suggested that the vanadium mono-oxidation offers advantageous performance over the conventional method using NH3 for ultra-trace vanadium determination by ICP-DRC-MS and can be readily employed in relevant environmental chemistry applications that deal with ultra-trace contaminants.Part II: Validation of a modified oxidation approach for the quantification of total arsenic and selenium in complex environmental matrices Spectroscopic interference problems of arsenic and selenium in ICP-MS practices were investigated in detail. Preliminary literature review suggested that oxygen could serve as an effective candidate reaction gas for analysis of the two elements in dynamic reaction cell coupled ICP-MS. An accurate method was developed for the determination of As and Se in complex environmental samples, based on a series of modifications on an oxidation approach for As and Se previously reported. Rhodium was used as internal standard in this study to help minimize non-spectral interferences such as instrumental drift. Using an oxygen gas flow slightly higher than 0.5 mL min-I, arsenic is converted to 75 AS160+ ion in an efficient manner whereas a potentially interfering ion, 91Zr+, is completely removed. Instead of using the most abundant Se isotope, 80Se, selenium was determined by a second most abundant isotope, 78Se, in the form of 78Se160. Upon careful selection of oxygen gas flow rate and optimization ofRPq value, previous isobaric threats caused by Zr and Mo were reduced to background levels whereas another potential atomic isobar, 96Ru+, became completely harmless to the new selenium analyte. The new method underwent a strict validation procedure where the recovery of a suitable certified reference material was examined and the obtained sample data were compared with those produced by a credible external laboratory who analyzed the same set of samples using a standardized HG-ICP-AES method. The validation results were satisfactory. The resultant limits of detection for arsenic and selenium were 5 ng L-1 and 60 ng L-1, respectively.
Resumo:
Complex networks have recently attracted a significant amount of research attention due to their ability to model real world phenomena. One important problem often encountered is to limit diffusive processes spread over the network, for example mitigating pandemic disease or computer virus spread. A number of problem formulations have been proposed that aim to solve such problems based on desired network characteristics, such as maintaining the largest network component after node removal. The recently formulated critical node detection problem aims to remove a small subset of vertices from the network such that the residual network has minimum pairwise connectivity. Unfortunately, the problem is NP-hard and also the number of constraints is cubic in number of vertices, making very large scale problems impossible to solve with traditional mathematical programming techniques. Even many approximation algorithm strategies such as dynamic programming, evolutionary algorithms, etc. all are unusable for networks that contain thousands to millions of vertices. A computationally efficient and simple approach is required in such circumstances, but none currently exist. In this thesis, such an algorithm is proposed. The methodology is based on a depth-first search traversal of the network, and a specially designed ranking function that considers information local to each vertex. Due to the variety of network structures, a number of characteristics must be taken into consideration and combined into a single rank that measures the utility of removing each vertex. Since removing a vertex in sequential fashion impacts the network structure, an efficient post-processing algorithm is also proposed to quickly re-rank vertices. Experiments on a range of common complex network models with varying number of vertices are considered, in addition to real world networks. The proposed algorithm, DFSH, is shown to be highly competitive and often outperforms existing strategies such as Google PageRank for minimizing pairwise connectivity.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
Lorsque nous cherchons un ami dans une foule ou attendons un proche sur le quai d’une gare, l’identification de cette personne nous est souvent possible grâce à la reconnaissance de sa démarche. Plusieurs chercheurs se sont intéressés à la façon de se mouvoir de l’être humain en étudiant le mouvement biologique. Le mouvement biologique est la représentation, par un ensemble structuré de points lumineux animés, des gestes d’un individu en mouvement dans une situation particulière (marche, golf, tennis, etc.). Une des caractéristiques du patron de mouvement biologique peu étudiée et néanmoins essentielle est sa taille. La plupart des études concernées utilisent des patrons de petite taille correspondant à une personne située à 16 mètres de l’observateur. Or les distances d’interaction sociale, chez l’humain, sont généralement inférieures à 16 mètres. D’autre part, les résultats des études portant sur la perception des patrons de mouvement biologique et le vieillissement demeurent contradictoires. Nous avons donc, dans un premier temps, évalué, dans une voûte d’immersion en réalité virtuelle, l’importance de la distance entre l’observateur et le patron de mouvement biologique, chez des adultes jeunes et des personnes âgées. Cette étude a démontré que l’évaluation de la direction de mouvement d’un patron devient difficile pour les personnes âgées lorsque le patron est situé à moins de 4 mètres, alors que les résultats des jeunes sont comparables pour toutes distances, à partir d’un mètre et au-delà. Cela indique que les gens âgés peinent à intégrer l’information occupant une portion étendue de leur champ visuel, ce qui peut s’avérer problématique dans des espaces où les distances d’interaction sont inférieures à 4 mètres. Nombre de recherches indiquent aussi clairement que les gens âgés s’adaptent difficilement à des situations complexes. Nous avons donc cherché, dans un second temps, à minimiser ces altérations liées à l’âge de l’intégration des processus complexes, en utilisant une tâche adaptée à l’entraînement et à l’évaluation de l’intégration de ces processus : la poursuite multiple d’objets dans l’espace ou 3D-MOT (3 Dimensions Multiple Object Tracking). Le 3D-MOT consiste à suivre simultanément plusieurs objets d’intérêt en mouvement parmi des distracteurs également en mouvement. Nous avons évalué les habiletés de participants jeunes et âgés à une telle tâche dans un environnement virtuel en 3D en déterminant la vitesse maximale de déplacement des objets à laquelle la tâche pouvait être exécutée. Les résultats des participants âgés étaient initialement inférieurs à ceux des jeunes. Cependant, après plusieurs semaines d’entraînement, les personnes âgées ont obtenu des résultats comparables à ceux des sujets jeunes non entraînés. Nous avons enfin évalué, pour ces mêmes participants, l’impact de cet entraînement sur la perception de patrons de mouvement biologique présentés à 4 et 16 mètres dans l’espace virtuel : les habiletés des personnes âgées entraînées obtenues à 4 mètres ont augmenté de façon significative pour atteindre le niveau de celles obtenues à 16 mètres. Ces résultats suggèrent que l’entraînement à certaines tâches peut réduire les déclins cognitivo-perceptifs liés à l’âge et possiblement aider les personnes âgées dans leurs déplacements quotidiens.
Resumo:
La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.
Resumo:
L’implantation répandue de nouveaux quartiers résidentiels sur le territoire de la périphérie urbaine est en partie responsable de la baisse du couvert végétal et de l’augmentation des surfaces imperméables à grande échelle. Les villes sont maintenant aux prises avec une augmentation constante de la production de ruissellement qu'elles doivent gérer au moyen d’un vaste réseau d’égouts et de canalisations. Des données sur les impacts de ces modèles de quartier résidentiel nous révèlent que cette forme d’habitat provoque la dégradation des milieux naturels et aquatiques. La présente étude vise à mettre à l’épreuve la stratégie d’aménagement de l’Open space design en comparant l’effet de trois situations d’aménagement d’ensembles résidentiels sur le coefficient de ruissellement pondéré (Cp). Les trois situations étudiées sont 1 : le développement actuel tel que conçu par le promoteur, 2 : un scénario de quartier visant la préservation des cours d’eau existants ainsi qu’une réduction des lots et des surfaces imperméables et 3 : un quartier avec des types d’habitation plus denses. Les coefficients pondérés obtenus sont respectivement de 0,50 pour le quartier actuel, de 0,40 pour le scénario 1 et de 0,34 pour le scénario 2. Au terme de cet exercice, il apparaît, d’une part, que la densification du bâti, la nature des surfaces et l’organisation spatiale peuvent concourir à diminuer la production de ruissellement d’un quartier. Cette étude permet de situer l’importance de la gestion du ruissellement dans la planification et l’aménagement du territoire.
Resumo:
Cette thèse fait la lumière sur les différentes manières dont, historiquement, a été perçu, conçu et vécu le territoire, à travers l’expérience et l’essor de la mobilité. Cette étude montre le rôle crucial de l’automobilité dans le développement touristique du Québec et de l’Ontario et les manières dont elle a façonné certains de leurs territoires. La thèse reconstitue ces processus en examinant les différentes mesures adoptées pour mettre en tourisme ces territoires et les transformer sur le plan matériel comme symbolique, entre 1920 et 1967. Elle répond à la question suivante : en quoi et comment la mobilité associée à l’automobile transforme et crée les territoires touristiques? La période étudiée s’ouvre au moment où débute l’intervention gouvernementale en matière de tourisme et s’amorce l’aménagement d’infrastructures favorisant une plus grande automobilité. Elle se clôt sur les célébrations entourant le Centenaire du Canada et la tenue de l’Expo 1967 à Montréal, qui donnent lieu à un aménagement intense du territoire afin d’accommoder un nombre sans précédent de touristes motorisés en provenance des autres provinces canadiennes et des États-Unis. La thèse reconstitue d’abord le processus de mise en tourisme des territoires par la conception, la construction et la promotion du système routier, l’élaboration d’itinéraires et de circuits touristiques et le développement d’outils accompagnant le touriste dans sa mobilité. L’embellissement en tant qu’élément structurant de la transformation des territoires est ensuite examiné. Enfin, la publicité, les récits et les pratiques touristiques sont étudiés de manière détaillée afin d’identifier les mécanismes par lesquels se construisent les représentations des territoires par l’apport de différents acteurs. Cette thèse révèle ainsi les liens étroits et complexes qui se développent à partir des années 1920 entre l’automobilité, le tourisme et la modification des territoires. Elle contribue à mettre au jour l’historicité de certains réflexes et orientations qui ont encore cours dans l’industrie touristique canadienne soit ceux d’aborder son développement en fonction de l’accessibilité du territoire à l’automobile et du regard à travers le pare-brise. En montrant le rôle du système automobile dans l’expérience touristique, l’étude ajoute un élément nouveau à la compréhension de la démocratisation des loisirs. Souvent expliquée par la hausse du niveau de vie, du temps libre et de la généralisation des congés payés, cette démocratisation se trouve aussi favorisée par l’accessibilité à l’automobile qui, à son tour, rend accessible des territoires de plus en plus éloignés à des fins de loisirs. La dimension récréative de l’automobile permet d’expliquer son adoption rapide par les Nord-Américains et les Canadiens ainsi que la dépendance qu’ils ont progressivement développée à son égard.
Resumo:
La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.