892 resultados para agent based modelling


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The energy consumption of IT equipments is becoming an issue of increasing importance. In particular, network equipments such as routers and switches are major contributors to the energy consumption of internet. Therefore it is important to understand how the relationship between input parameters such as bandwidth, number of active ports, traffic-load, hibernation-mode and their impact on energy consumption of a switch. In this paper, the energy consumption of a switch is analyzed in extensive experiments. A fuzzy rule-based model of energy consumption of a switch is proposed based on the result of experiments. The model can be used to predict the energy saving when deploying new switches by controlling the parameters to achieve desired energy consumption and subsequent performance. Furthermore, the model can also be used for further researches on energy saving techniques such as energy-efficient routing protocol, dynamic link shutdown, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sustainability and recycling are core values in today’s industrial operations. New materials, products and processes need to be designed in such a way as to consume fewer of the diminishing resources we have available and to put as little strain on the environment as possible. An integral part of this is cleaning and recycling. New processes are to be designed to improve the efficiency in this aspect. Wastewater, including municipal wastewaters, is treated in several steps including chemical and mechanical cleaning of waters. Well-cleaned water can be recycled and reused. Clean water for everyone is one of the greatest challenges we are facing today. Ferric sulphate, made by oxidation from ferrous sulphate, is used in water purification. The oxidation of ferrous sulphate, FeSO4, to ferric sulphate in acidic aqueous solutions of H2SO4 over finely dispersed active carbon particles was studied in a vigorously stirred batch reactor. Molecular oxygen was used as the oxidation agent and several catalysts were screened: active carbon, active carbon impregnated with Pt, Rh, Pd and Ru. Both active carbon and noble metal-active carbon catalysts enhanced the oxidation rate considerably. The order of the noble metals according to the effect was: Pt >> Rh > Pd, Ru. By the use of catalysts, the production capacities of existing oxidation units can be considerably increased. Good coagulants have a high charge on a long polymer chain effectively capturing dirty particles of the opposite charge. Analysis of the reaction product indicated that it is possible to obtain polymeric iron-based products with good coagulation properties. Systematic kinetic experiments were carried out at the temperature and pressure ranges of 60B100°C and 4B10 bar, respectively. The results revealed that both non-catalytic and catalytic oxidation of Fe2+ to Fe3+ take place simultaneously. The experimental data were fitted to rate equations, which were based on a plausible reaction mechanism: adsorption of dissolved oxygen on active carbon, electron transfer from Fe2+ ions to adsorbed oxygen and formation of surface hydroxyls. A comparison of the Fe2+ concentrations predicted by the kinetic model with the experimentally observed concentrations indicated that the mechanistic rate equations were able to describe the intrinsic oxidation kinetics of Fe2+ over active carbon and active carbon-noble metal catalysts. Engineering aspects were closely considered and effort was directed to utilizing existing equipment in the production of the new coagulant. Ferrous sulphate can be catalytically oxidized to produce a novel long-chained polymeric iron-based flocculent in an easy and affordable way in existing facilities. The results can be used for modelling the reactors and for scale-up. Ferric iron (Fe3+) was successfully applied for the dissolution of sphalerite. Sphalerite contains indium, gallium and germanium, among others, and the application can promote their recovery. The understanding of the reduction process of ferric to ferrous iron can be used to develop further the understanding of the dissolution mechanisms and oxidation of ferrous sulphate. Indium, gallium and germanium face an ever-increasing demand in the electronics industry, among others. The supply is, however, very limited. The fact that most part of the material is obtained through secondary production means that real production quota depends on the primary material production. This also sets the pricing. The primary production material is in most cases zinc and aluminium. Recycling of scrap material and the utilization of industrial waste, containing indium, gallium and geranium, is a necessity without real options. As a part of this study plausible methods for the recovery of indium, gallium and germanium have been studied. The results were encouraging and provided information about the precipitation of these valuables from highly acidic solutions. Indium and gallium were separated from acidic sulphuric acid solutions by precipitation with basic sulphates such as alunite or they were precipitated as basic sulphates of their own as galliunite and indiunite. Germanium may precipitate as a basic sulphate of a mixed composition. The precipitation is rapid and the selectivity is good. When the solutions contain both indium and gallium then the results show that gallium should be separated before indium to achieve a better selectivity. Germanium was separated from highly acidic sulphuric acid solutions containing other metals as well by precipitating with tannic acid. This is a highly selective method. According to the study other commonly found metals in the solution do not affect germanium precipitation. The reduction of ferric iron to ferrous, the precipitation of indium, gallium and germanium, and the dissolution of the raw materials are strongly depending on temperature and pH. The temperature and pH effect were studied and which contributed to the understanding and design of the different process steps. Increased temperature and reduced pH improve the reduction rate. Finally, the gained understanding in the studied areas can be employed to develop better industrial processes not only on a large scale but also increasingly on a smaller scale. The small amounts of indium, gallium and germanium may favour smaller and more locally bound recovery.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nykypäivän monimutkaisessa ja epävakaassa liiketoimintaympäristössä yritykset, jotka kykenevät muuttamaan tuottamansa operatiivisen datan tietovarastoiksi, voivat saavuttaa merkittävää kilpailuetua. Ennustavan analytiikan hyödyntäminen tulevien trendien ennakointiin mahdollistaa yritysten tunnistavan avaintekijöitä, joiden avulla he pystyvät erottumaan kilpailijoistaan. Ennustavan analytiikan hyödyntäminen osana päätöksentekoprosessia mahdollistaa ketterämmän, reaaliaikaisen päätöksenteon. Tämän diplomityön tarkoituksena on koota teoreettinen viitekehys analytiikan mallintamisesta liike-elämän loppukäyttäjän näkökulmasta ja hyödyntää tätä mallinnusprosessia diplomityön tapaustutkimuksen yritykseen. Teoreettista mallia hyödynnettiin asiakkuuksien mallintamisessa sekä tunnistamalla ennakoivia tekijöitä myynnin ennustamiseen. Työ suoritettiin suomalaiseen teollisten suodattimien tukkukauppaan, jolla on liiketoimintaa Suomessa, Venäjällä ja Balteissa. Tämä tutkimus on määrällinen tapaustutkimus, jossa tärkeimpänä tiedonkeruumenetelmänä käytettiin tapausyrityksen transaktiodataa. Data työhön saatiin yrityksen toiminnanohjausjärjestelmästä.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Human beings have always strived to preserve their memories and spread their ideas. In the beginning this was always done through human interpretations, such as telling stories and creating sculptures. Later, technological progress made it possible to create a recording of a phenomenon; first as an analogue recording onto a physical object, and later digitally, as a sequence of bits to be interpreted by a computer. By the end of the 20th century technological advances had made it feasible to distribute media content over a computer network instead of on physical objects, thus enabling the concept of digital media distribution. Many digital media distribution systems already exist, and their continued, and in many cases increasing, usage is an indicator for the high interest in their future enhancements and enriching. By looking at these digital media distribution systems, we have identified three main areas of possible improvement: network structure and coordination, transport of content over the network, and the encoding used for the content. In this thesis, our aim is to show that improvements in performance, efficiency and availability can be done in conjunction with improvements in software quality and reliability through the use of formal methods: mathematical approaches to reasoning about software so that we can prove its correctness, together with the desirable properties. We envision a complete media distribution system based on a distributed architecture, such as peer-to-peer networking, in which different parts of the system have been formally modelled and verified. Starting with the network itself, we show how it can be formally constructed and modularised in the Event-B formalism, such that we can separate the modelling of one node from the modelling of the network itself. We also show how the piece selection algorithm in the BitTorrent peer-to-peer transfer protocol can be adapted for on-demand media streaming, and how this can be modelled in Event-B. Furthermore, we show how modelling one peer in Event-B can give results similar to simulating an entire network of peers. Going further, we introduce a formal specification language for content transfer algorithms, and show that having such a language can make these algorithms easier to understand. We also show how generating Event-B code from this language can result in less complexity compared to creating the models from written specifications. We also consider the decoding part of a media distribution system by showing how video decoding can be done in parallel. This is based on formally defined dependencies between frames and blocks in a video sequence; we have shown that also this step can be performed in a way that is mathematically proven correct. Our modelling and proving in this thesis is, in its majority, tool-based. This provides a demonstration of the advance of formal methods as well as their increased reliability, and thus, advocates for their more wide-spread usage in the future.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The electricity distribution sector will face significant changes in the future. Increasing reliability demands will call for major network investments. At the same time, electricity end-use is undergoing profound changes. The changes include future energy technologies and other advances in the field. New technologies such as microgeneration and electric vehicles will have different kinds of impacts on electricity distribution network loads. In addition, smart metering provides more accurate electricity consumption data and opportunities to develop sophisticated load modelling and forecasting approaches. Thus, there are both demands and opportunities to develop a new type of long-term forecasting methodology for electricity distribution. The work concentrates on the technical and economic perspectives of electricity distribution. The doctoral dissertation proposes a methodology to forecast electricity consumption in the distribution networks. The forecasting process consists of a spatial analysis, clustering, end-use modelling, scenarios and simulation methods, and the load forecasts are based on the application of automatic meter reading (AMR) data. The developed long-term forecasting process produces power-based load forecasts. By applying these results, it is possible to forecast the impacts of changes on electrical energy in the network, and further, on the distribution system operator’s revenue. These results are applicable to distribution network and business planning. This doctoral dissertation includes a case study, which tests the forecasting process in practice. For the case study, the most prominent future energy technologies are chosen, and their impacts on the electrical energy and power on the network are analysed. The most relevant topics related to changes in the operating environment, namely energy efficiency, microgeneration, electric vehicles, energy storages and demand response, are discussed in more detail. The study shows that changes in electricity end-use may have radical impacts both on electrical energy and power in the distribution networks and on the distribution revenue. These changes will probably pose challenges for distribution system operators. The study suggests solutions for the distribution system operators on how they can prepare for the changing conditions. It is concluded that a new type of load forecasting methodology is needed, because the previous methods are no longer able to produce adequate forecasts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this study was to contribute to the current knowledge-based theory by focusing on a research gap that exists in the empirically proven determination of the simultaneous but differentiable effects of intellectual capital (IC) assets and knowledge management (KM) practices on organisational performance (OP). The analysis was built on the past research and theoreticised interactions between the latent constructs specified using the survey-based items that were measured from a sample of Finnish companies for IC and KM and the dependent construct for OP determined using information available from financial databases. Two widely used and commonly recommended measures in the literature on management science, i.e. the return on total assets (ROA) and the return on equity (ROE), were calculated for OP. Thus the investigation of the relationship between IC and KM impacting OP in relation to the hypotheses founded was possible to conduct using objectively derived performance indicators. Using financial OP measures also strengthened the dynamic features of data needed in analysing simultaneous and causal dependences between the modelled constructs specified using structural path models. The estimates were obtained for the parameters of structural path models using a partial least squares-based regression estimator. Results showed that the path dependencies between IC and OP or KM and OP were always insignificant when analysed separate to any other interactions or indirect effects caused by simultaneous modelling and regardless of the OP measure used that was either ROA or ROE. The dependency between the constructs for KM and IC appeared to be very strong and was always significant when modelled simultaneously with other possible interactions between the constructs and using either ROA or ROE to define OP. This study, however, did not find statistically unambiguous evidence for proving the hypothesised causal mediation effects suggesting, for instance, that the effects of KM practices on OP are mediated by the IC assets. Due to the fact that some indication about the fluctuations of causal effects was assessed, it was concluded that further studies are needed for verifying the fundamental and likely hidden causal effects between the constructs of interest. Therefore, it was also recommended that complementary modelling and data processing measures be conducted for elucidating whether the mediation effects occur between IC, KM and OP, the verification of which requires further investigations of measured items and can be build on the findings of this study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Increasing amount of renewable energy source based electricity production has set high load control requirements for power grid balance markets. The essential grid balance between electricity consumption and generation is currently hard to achieve economically with new-generation solutions. Therefore conventional combustion power generation will be examined in this thesis as a solution to the foregoing issue. Circulating fluidized bed (CFB) technology is known to have sufficient scale to acts as a large grid balancing unit. Although the load change rate of the CFB unit is known to be moderately high, supplementary repowering solution will be evaluated in this thesis for load change maximization. The repowering heat duty is delivered to the CFB feed water preheating section by smaller gas turbine (GT) unit. Consequently, steam extraction preheating may be decreased and large amount of the gas turbine exhaust heat may be utilized in the CFB process to reach maximum plant electrical efficiency. Earlier study of the repowering has focused on the efficiency improvements and retrofitting to maximize plant electrical output. This study however presents the CFB load change improvement possibilities achieved with supplementary GT heat. The repowering study is prefaced with literature and theory review for both of the processes to maximize accuracy of the research. Both dynamic and steady-state simulations accomplished with APROS simulation tool will be used to evaluate repowering effects to the CFB unit operation. Eventually, a conceptual level analysis is completed to compare repowered plant performance to the state-of-the-art CFB performance. Based on the performed simulations, considerably good improvements to the CFB process parameters are achieved with repowering. Consequently, the results show possibilities to higher ramp rate values achieved with repowered CFB technology. This enables better plant suitability to the grid balance markets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Power line modelling has become an interesting research area in recent years as a result of advances in the power line distribution network system. Extensive knowledge about the power line cable characteristics can be implemented in a software algorithm in a modern broadband power-line communication modem. In this study, a novel approach for modelling power line cables (AMCMK) based on the broadband impedance spectroscopy (BIS) and transmission line matrix (TLM) techniques is recommended in characterizing a healthy cable and the various faults associated with low-voltage cables for both open and short circuit situation. Models for different cable conditions are developed and tuned, which include six models for both healthy and faulty cables situations. The models are on the basis of impedance response analysis of the cable. The resulting spectra from the simulations are also cross-correlated to determine the degree of similarities between the healthy cable spectra and their respective faulty spectra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Our surrounding landscape is in a constantly dynamic state, but recently the rate of changes and their effects on the environment have considerably increased. In terms of the impact on nature, this development has not been entirely positive, but has rather caused a decline in valuable species, habitats, and general biodiversity. Regardless of recognizing the problem and its high importance, plans and actions of how to stop the detrimental development are largely lacking. This partly originates from a lack of genuine will, but is also due to difficulties in detecting many valuable landscape components and their consequent neglect. To support knowledge extraction, various digital environmental data sources may be of substantial help, but only if all the relevant background factors are known and the data is processed in a suitable way. This dissertation concentrates on detecting ecologically valuable landscape components by using geospatial data sources, and applies this knowledge to support spatial planning and management activities. In other words, the focus is on observing regionally valuable species, habitats, and biotopes with GIS and remote sensing data, using suitable methods for their analysis. Primary emphasis is given to the hemiboreal vegetation zone and the drastic decline in its semi-natural grasslands, which were created by a long trajectory of traditional grazing and management activities. However, the applied perspective is largely methodological, and allows for the application of the obtained results in various contexts. Models based on statistical dependencies and correlations of multiple variables, which are able to extract desired properties from a large mass of initial data, are emphasized in the dissertation. In addition, the papers included combine several data sets from different sources and dates together, with the aim of detecting a wider range of environmental characteristics, as well as pointing out their temporal dynamics. The results of the dissertation emphasise the multidimensionality and dynamics of landscapes, which need to be understood in order to be able to recognise their ecologically valuable components. This not only requires knowledge about the emergence of these components and an understanding of the used data, but also the need to focus the observations on minute details that are able to indicate the existence of fragmented and partly overlapping landscape targets. In addition, this pinpoints the fact that most of the existing classifications are too generalised as such to provide all the required details, but they can be utilized at various steps along a longer processing chain. The dissertation also emphases the importance of landscape history as an important factor, which both creates and preserves ecological values, and which sets an essential standpoint for understanding the present landscape characteristics. The obtained results are significant both in terms of preserving semi-natural grasslands, as well as general methodological development, giving support to science-based framework in order to evaluate ecological values and guide spatial planning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The National Seaman’s Association was a labour recruiter hiding behind a union-like name. It was run by H.N. McMaster who collected fees from companies and dues from workers. With McMaster in charge, shipping interests could claim that their seamen had a union, but ship-owners were free to push their vessels and their workers to the breaking point. In 1935, the members on the Great Lakes decided to strike. One year later, they created their own union and amalgamated with a Montreal-based independent body to create the Canadian Seamen’s Union headed by a ship’s cook who became a union leader, John Allan Patrick “Pat” Sullivan. By the late 1940s, almost all sailors on Canadian ships were CSU members. Right from its inception in 1936, Communists were prominent among the leaders of the union. Sullivan had been recruited to the Communist party that year and the union had a close rapport with the party. On June 8, 1940, Pat Sullivan was arrested because of his affiliation with the Communist party. He was incarcerated until March 20, 1942. No charges were laid, no bail was set and there was no trial. After his release, Sullivan was elected second vice-president of the Trades and Labour Congress of Canada. In 1943, Percy Bengough was elected as president and Sullivan was elected as secretary treasurer of the TLC while maintaining his role as president of the CSU. On March 14, 1947 Sullivan made a shocking announcement that he was resigning from the CSU and the Labor-Progressive Party. He claimed that the CSU was under the full control of the Communists. Within a month of this announcement, he emerged as the president of the Canadian Lake Seamen’s Union. Ship-owners never really reconciled themselves to having their industry unionized, and in 1946 there was a seamen’s strike in which the union won the eight-hour day. In 1949, the shipping companies had a plan to get rid of the union and were negotiating behind their back with the Seafarers International Union (SIU). In a brutal confrontation, led by Hal Banks, an American ex-convict, the SIU was able to roust the CSU and take over the bargaining rights of Canadian seamen. On July 15, 1948, Robert Lindsay, who was Sullivan’s Welland business agent said that to the best of his knowledge, Sullivan’s outfit, the CLSU, was under the control of some of the Steamship Companies. Lindsay had heard that there was a movement to get rid of Bengough of the Trades and Labour Congress as well as elements of the CSU. He also had heard that the CLSU wanted to affiliate with the American Federation of Labor. Lindsay’s allegations raised the questions: Were the ship-owners powerful enough to oust Percy Bengough because he supported the seamen? Could the CLSU get an affiliation with the American Federation of Labor? and Would the American Federation of Labor actually affiliate with a union that was siding with employers against a locked-out union?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse vise à comprendre comment et dans quelle mesure l’agrément des établissements de santé est-il efficace pour développer les capacités des acteurs, nécessaires pour améliorer la qualité des soins et des services. Au cours des dix dernières années, il y a eu une croissance rapide, à l'échelle mondiale de la mise en œuvre de programmes d'agrément en santé pour l’amélioration de la qualité. L'expérience de la dernière décennie prouve que l'agrément est une technique valable pour l'amélioration de la qualité dans beaucoup d’organismes de santé. Il est également utilisé pour soutenir les réformes en santé. Malgré cela, les outils de gestion comme l’agrément sont souvent critiqués, car elles sont adoptées avec enthousiasme négligeant fréquemment une implantation favorisant la mise en place de comportements durables et la démonstration de meilleurs résultats. Le développement des capacités (DC) est un processus délibéré, multidimensionnel, dynamique dont le but est d’améliorer la performance des individus, des équipes, de l’organisation et d’un système. Le DC constitue une des trois assises de l’implantation d’une démarche institutionnalisée de la qualité, au même niveau que la communication et la reconnaissance. Cette recherche c’est déroulée dans un organisme d’Arabie Saoudite dans le cadre de leur première démarche avec le Conseil canadien d’agrément (CCASS) des services de santé. Une étude de cas unique d’implantation de l’agrément a été menée utilisant une approche mixte. Quatre niveaux d’analyse ont été étudiés en détail (individu, équipe, organisation et système) afin de mesurer 28 effets escomptés du DC puisés dans la littérature. Des entretiens semi-structurés, des groupes de discussion, une revue de la documentation ont été réalisés. Dans le but de mesurer trois des effets escomptés, un questionnaire sur le niveau d’implantation de la qualité (NIQ) a été administré pour la première fois en Arabie Saoudite dans cinq organismes. La performance du cas a été évaluée en relation avec les autres et en fonction de son positionnement dans le cycle d’agrément. Des analyses qualitatives et quantitatives utilisant la technique de polissage par la médiane ont été exécutées. Au niveau des individus, l’agrément a motivé la participation à de nouvelles formations. L’auto-évaluation est l’étape qui encourage l’apprentissage par l’autocritique. Le sentiment de fierté est le changement affectif le plus souvent répertorié. Les équipes ont amélioré leur communication par l’implantation d’une « chaîne de commandement ». Elle a introduit des notions de respect et de clarté des rôles telles qu’exigées par les normes. Au moyen de la mesure du NIQ, nous avons constaté que la majorité des organismes saoudiens se positionnent au niveau minimal d’implantation (assurance qualité). Le plus expérimenté avec l’agrément démontre les meilleurs résultats tout près du second niveau. Enfin, plus les organismes progressent dans la démarche d’agrément, plus les écarts de perception entre les 8 domaines mesurés par le questionnaire du NIQ et entre les différentes catégories d’emploi s’amincissent. En conclusion, l’agrément a démontré de l’efficacité à développer de nouvelles capacités par l’intégration des transformations des individus et par l’impact de l’acquisition des nouvelles capacités sur le changement des pratiques, majoritairement au niveau des individus, des équipes et de l’organisation. Le processus d’agrément a également fait preuve d’importants pouvoirs de convergence au niveau de l’adoption des pratiques édictées par les normes d’agrément qui contribuent positivement à l’amélioration de la qualité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cancer du poumon associé à l’exposition au nickel, au chrome VI et au cadmium dans le milieu de travail utilisant deux études populationnelles cas-témoins à Montréal. Au début des années 1990, le nickel, le chrome VI et le cadmium ont été classés en tant qu’agents cancérigènes de classe 1 par le CIRC (Centre International de Recherche sur le Cancer). Cependant, les résultats des études ayant permis la classification de ces métaux n’ont pas toujours été reproduits, et d’importantes questions demeurent quant aux effets de ces métaux à de faibles niveaux d’exposition. Un plus grand nombre de recherches empiriques est donc nécessaire afin de réaffirmer la cancérogénicité de ces agents, et d’identifier les circonstances dans lesquelles ils peuvent être néfastes. L'objectif de cette étude était d'explorer la relation entre l’exposition à un des métaux (soit le nickel, le chrome VI, ou le cadmium) et les risques subséquents de développer un cancer du poumon chez des travailleurs provenant de différents milieux de travail qui sont exposés à ces métaux à de différents degrés. Deux études cas-témoins de base populationnelle menées à Montréal ont fourni les données nécessaires pour examiner la cancérogénicité de ces métaux. La première étude était menée entre 1979 et 1986 chez des hommes âgés de 35 à 70 ans ayant un cancer dans l’un de 19 sites anatomiques de cancer sélectionnés. La seconde étude était menée entre 1996 et 2001 chez des hommes et des femmes âgés de 35 à 75 ans, avec un diagnostic de tumeur maligne au poumon. Dans ces deux études, les cas ont été recensés dans tous les hôpitaux de l'île de Montréal, tandis que les contrôles populationnels appariés par âge et stratifiés par sexe, ont été sélectionnés des listes électorales. Une entrevue avec chaque sujet a permis d'obtenir un historique d'emploi détaillé ainsi que des informations précises sur les facteurs de risques socio-économiques et personnels. Les descriptions de poste ont été évaluées par une équipe d'experts chimistes et hygiénistes afin de déterminer si le sujet a été exposé à chaque agent, et pour mesurer à la fois la concentration et la durée de chaque exposition, ainsi que l’exposition cumulative tout au long de la vie de chaque participant. Pour déterminer si une exposition à l’un des trois métaux en cause était associée à une augmentation de l'incidence du cancer du poumon, des données ont été analysées par régression logistique : des ajustements ont été effectués pour des facteurs de confusion pertinents incluant un historique détaillé du tabagisme. Des mesures catégoriques d'exposition cumulée ont été également analysées, ainsi que la modification des effets par le tabagisme. Les deux études ont été analysées séparément, puis par la suite combinées afin d'augmenter la puissance statistique. Les niveaux d'exposition mesurés dans cette population ne semblaient pas poser un excès de risque de cancer du poumon pour les travailleurs exposés au chrome VI. Cependant, ceux qui ont été exposés au nickel ont subi une augmentation significative du risque, et ce, quel que soit leur niveau d'exposition. Le risque de développer un cancer du poumon suite à une exposition au cadmium était élevé, mais pas de manière significative. Pour chacun des trois métaux, le risque de cancer du poumon était très élevé parmi les non-fumeurs, mais pas parmi les fumeurs. L’effet combiné du tabagisme et de l’exposition aux métaux était compatible avec un excès de risque additif. Cependant, les intervalles de confiance dans cette étude tendaient à être larges, et une faiblesse de puissance statistique peut limiter l’interprétation de certains résultats. Cette étude est unique dans la mesure où elle a fourni des preuves empiriques sur les risques de développer le cancer du poumon liés aux faibles niveaux d’exposition au nickel, au chrome VI, ou au cadmium provenant de divers contextes de travail. Dans la plupart des autres études, la majorité des expositions pertinentes n’ont pas été bien contrôlées. À l'inverse, cette étude a bénéficié de la collecte et de la disponibilité d'information détaillée concernant le tabagisme et d’autres facteurs de risque. Les résultats de cette étude ont d'importantes conséquences pour la santé publique, tant au niveau de la détermination des risques pour les travailleurs actuellement exposés à ces métaux, qu'au niveau de l’évaluation des risques pour la population en général, elle-même exposée à ces métaux par le biais de la pollution et de la fumée de cigarette. Cette analyse contribuera fort probablement à une réévaluation par le CIRC de la cancérogénicité de ces métaux. L'exploration de la relation entre les risques de cancer du poumon et l'exposition au nickel, au chrome VI et au cadmium est donc opportune et pertinente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The thesis deals with some of the non-linear Gaussian and non-Gaussian time models and mainly concentrated in studying the properties and application of a first order autoregressive process with Cauchy marginal distribution. In this thesis some of the non-linear Gaussian and non-Gaussian time series models and mainly concentrated in studying the properties and application of a order autoregressive process with Cauchy marginal distribution. Time series relating to prices, consumptions, money in circulation, bank deposits and bank clearing, sales and profit in a departmental store, national income and foreign exchange reserves, prices and dividend of shares in a stock exchange etc. are examples of economic and business time series. The thesis discuses the application of a threshold autoregressive(TAR) model, try to fit this model to a time series data. Another important non-linear model is the ARCH model, and the third model is the TARCH model. The main objective here is to identify an appropriate model to a given set of data. The data considered are the daily coconut oil prices for a period of three years. Since it is a price data the consecutive prices may not be independent and hence a time series based model is more appropriate. In this study the properties like ergodicity, mixing property and time reversibility and also various estimation procedures used to estimate the unknown parameters of the process.