925 resultados para Women--Ireland--History--20th century
Resumo:
The papers presented in this volume were delivered at a conference held on April 2, 1980, in Iowa City under the sponsorship of the Center for the Study of the Recent History of the United States, a cooperative undertaking involving the State Historical Society of Iowa, the Herbert Hoover Presidential Library, and the University of Iowa. The institutions were working together to make a larger contribution to the study of the history of the United States in the 20th century.
Resumo:
Non-Hodgkin lymphomas (NHL) are among the few neoplasms whose incidence and mortality have been rising in Europe and North America over the last few decades. To update trends from NHL, we considered mortality data up to 2004 in several European countries, and for comparative purpose in the USA and Japan. We also analyzed patterns in incidence for selected European countries providing national data. In most European countries, NHL mortality rose up to the mid 1990s, and started to level off or decline in the following decade. The rates were, however, still increasing in eastern Europe. Overall, in the European Union, mortality from NHL declined from 4.3/100,000 to 4.1 in men and from 2.7 to 2.5 in women between the late 1990s and the early 2000s. Similarly, NHL mortality rates declined from 6.5/100,000 to 5.5 in US men and from 4.2 to 3.5 in US women. In most countries considered, NHL incidence rates rose up to 1995-99, while they tended to level off or decline thereafter, with particular favorable patterns in countries from northern Europe. Thus, the epidemic of NHL observed during the second half of the 20th century has now started to level off in Europe as in other developed areas of the world.
Resumo:
Pieces of Iowa’s Past, published by the Iowa State Capitol Tour Guides weekly during the legislative session, features historical facts about Iowa, the Capitol, and the early workings of state government. All historical publications are reproduced here with the actual spelling, punctuation, and grammar retained. THIS WEEK: Electric Lighting in the Iowa State Capitol BACKGROUND: REPORT OF COMMITTEE ON LIGHTING THE BUILDING AND GROUNDS WITH ELECTRICITY—1882 The Capitol Commissioners submitted biennial reports throughout the 15 years it took to build the Capitol (1871-1886). Often there were committees formed to investigate a certain phase of the construction. The following is the report of the Committee on Lighting. Note: The Capitol Commissioners determined the gas lighting to be the best choice in the 1880s. Less than 20 years later, the process began to convert the Capitol from gas to electric lighting. There was a period where both types of lighting were being used in the Capitol. The photograph of the 1904 apple harvest shows both electric and gas fixtures. The turn of the 20th century photograph of the library also shows chandeliers utilizing both gas and electricity. The photograph of the single fixture in the library is a mystery. It shows a fixture utilizing both gas and electricity, but no other photographs of the library exist where this fixture appears. Perhaps it was a prototype and never used in the Capitol.
Resumo:
The Marsh Rainbow Arch Bridge is a patented bridge design by James Barney Marsh, a graduate of Iowa State College of Agriculture and Mechanic Arts (now Iowa State University). Around the turn of the 20th Century, reinforced concrete was introduced in Iowa as an important new bridge construction material. Marsh used the new technology to encased steel truss arches in concrete to produce a sturdy yet esthetic arch bridge. This booklet touches on the important aspects of Marsh's life, business and industrial contributions.
Resumo:
L'objectif principal de cette thèse consiste à mettre en évidence la persistance du capitalisme familial en Suisse au cours du 20e siècle, et sa résistance aux capitalismes managérial et financier qui sont censés lui avoir succédé. Pour ce faire, nous avons retenu vingt-deux grandes entreprises du secteur des machines, de l'électrotechnique et de la métallurgie - principale branche de l'industrie suisse pour la période considérée -, pour lesquelles ont été recensés les membres des conseils d'administration et les principaux dirigeants exécutifs pour cinq dates- repère couvrant le siècle (1910, 1937, 1957, 1980 et 2000). Cette thèse s'inscrit dans une démarche pluridisciplinaire qui relève à la fois de l'histoire d'entreprise et de la sociologie des dirigeants, et fait appel à différentes méthodes telles que l'analyse de réseau et l'analyse prosopographique. Elle s'articule autour de trois axes de recherche principaux : le premier vise à mettre en évidence l'évolution des modes de gouvernance dans notre groupe d'entreprises, le second investit la question de la coordination patronale et le troisième a pour but de dresser un portrait collectif des élites à la tête de nos vingt-deux firmes. Nos résultats montrent que durant la majeure partie du siècle, la plupart de nos entreprises sont contrôlées par des familles et fonctionnent sur un mode de coordination hors marché qui repose notamment sur un réseau dense de liens interfirmes, le profil des dirigeants restant dans l'ensemble stable. Si la fin du siècle est marquée par plusieurs changements qui confirment l'avènement d'un capitalisme dit financier ou actionnarial et la mise en place de pratiques plus concurrentielles parmi les firmes et les élites industrielles, le maintien du contrôle familial dans plusieurs entreprises et la persistance de certains anciens mécanismes de coopération nous incitent cependant à nuancer ce constat. - The main objective of this research is to highlight the persistence of family capitalism in Switzerland during the 20th century and its resistance to managerial and financial capitalisms that succeeded. For this purpose, we focus on twenty- two big companies of the machine, electrotechnical and metallurgy sector - the main branch of the Swiss industry for the considered period - whose boards of directors and executive managers have been identified for five benchmarks across the century (1910, 1937, 1957, 1980 and 2000). This thesis relates to business history and elites sociology, and uses different methods such as network analysis and prosopography. It is articulated around three main parts. The aim of the first one is to identify the evolution of corporate governance in our twenty-two enterprises, the second part concentrates on interfirms coordination and the objective of the last one is to highlight the profile of the corporate elite leading our firms. Our results show that during the main part of the century, most of the companies were controlled by families and were characterized by non-market mechanisms of coordination such as interlocking directorates ; moreover, the profile of the corporate elite remained very stable. Although some major changes that took place by the end of the century confirmed a transition towards financial capitalism and more competitive interaction among firms and the corporate elite, the persistence of family control in several companies and the maintaining of some former mechanisms of coordination allow us to put this evolution into perspective.
Resumo:
Despite a sharp decline in the incidence of gastric cancer during the second half of the 20th century, this malignancy remains the second leading cause of cancer mortality in the world. The incidence and mortality rate of gastric cancer increase with age; at present, the median ages at diagnosis are 67 years for men and 72 years for women in the US. This article reviews and discusses current medical treatment options for both the general population and elderly gastric cancer patients. Management of localized gastric cancer has changed significantly over recent years. Adjuvant chemoradiation is not generally recommended outside the US. After decades of trials of adjuvant chemotherapy with inconclusive results, a significant survival benefit for perioperative combination chemotherapy - as compared with surgery alone - in patients with resectable or locally advanced gastro-oesophageal cancer was recently demonstrated in the UK MAGIC trial. A further large, randomized trial from Japan demonstrated a significant survival benefit for adjuvant chemotherapy with S-1 after D2 resection for gastric cancer. However, both trials are applicable only to the population in which the trials were conducted. Specific data on elderly patients are missing. For patients with metastatic disease, oral fluoropyrimidines, such as capecitabine, have been developed. In Asian patients, treatment with the oral fluoropyrimidine S-1 is safe and effective. Docetaxel, oxaliplatin and irinotecan have demonstrated activity against gastric cancer in appropriately designed, randomized, phase III trials and have increased the available treatment options significantly. In addition, according to preliminary data, trastuzumab in combination with chemotherapy has significantly improved activity when compared to chemotherapy alone in patients with human epidermal receptor (HER)-2-positive gastric and gastro-oesophageal cancers. Thus, therapeutic decisions in patients with advanced gastric cancer may be adapted to the molecular subtype and co-morbidities of the individual patient. Data from retrospective analyses suggest that oxaliplatin seems to be better tolerated than cisplatin in elderly patients.
Resumo:
According to Ray Harryhausen, a special effects expert in the film industry, "Gustave Doré would have made a great director of photography . . . He saw things from the point of view of the camera." Doré's work has had a permanent impact on the imaginative realm of film since its very early days. In return, the silver screen has etched Doré into the 20th century imagination. Almost every film about the Bible since The Life and Passion of Jesus Christ produced by Pathé in 1902 refers to his illustrations, and every film adaptation of Dante or Don Quixote has used him as a model, from Georg Wilhelm Pabst and Orson Welles to Terry Gilliam. All films dealing with life in London in the Victorian era by directors ranging from David Lean, to Roman Polanski and Tim Burton draw on the visions in London: a pilgrimage for their sets. A large number of dream fantastical or phantasmagorical scenes take their inspiration from Doré's graphic world, beginning with Georges Méliès' A Trip to the Moon in 1902. In the realm of cartoons and animation, Walt Disney owes a huge debt to Doré. Doré primal forests, from Atala in particular, were also used in the various versions of King Kong from 1933 to the 2005 film by Peter Jackson, who had already drawn on Doré for The Lord of the Rings. Jean Cocteau was also indebted to the illustrations for Perrault's Fairy Tales for his Beauty and the Beast (1945), as was George Lucas for the character Chewbacca in Star Wars (1977) and even the Harry Potter film series. Through his influence on film history, Doré shaped the mass culture imagination.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
Les reconstructions palinspastiques fournissent le cadre idéal à de nombreuses études géologiques, géographiques, océanographique ou climatiques. En tant qu?historiens de la terre, les "reconstructeurs" essayent d?en déchiffrer le passé. Depuis qu?ils savent que les continents bougent, les géologues essayent de retracer leur évolution à travers les âges. Si l?idée originale de Wegener était révolutionnaire au début du siècle passé, nous savons depuis le début des années « soixante » que les continents ne "dérivent" pas sans but au milieu des océans mais sont inclus dans un sur-ensemble associant croûte « continentale » et « océanique »: les plaques tectoniques. Malheureusement, pour des raisons historiques aussi bien que techniques, cette idée ne reçoit toujours pas l'écho suffisant parmi la communauté des reconstructeurs. Néanmoins, nous sommes intimement convaincus qu?en appliquant certaines méthodes et certains principes il est possible d?échapper à l?approche "Wégenerienne" traditionnelle pour enfin tendre vers la tectonique des plaques. Le but principal du présent travail est d?exposer, avec tous les détails nécessaires, nos outils et méthodes. Partant des données paléomagnétiques et paléogéographiques classiquement utilisées pour les reconstructions, nous avons développé une nouvelle méthodologie replaçant les plaques tectoniques et leur cinématique au coeur du problème. En utilisant des assemblages continentaux (aussi appelés "assemblées clés") comme des points d?ancrage répartis sur toute la durée de notre étude (allant de l?Eocène jusqu?au Cambrien), nous développons des scénarios géodynamiques permettant de passer de l?une à l?autre en allant du passé vers le présent. Entre deux étapes, les plaques lithosphériques sont peu à peu reconstruites en additionnant/ supprimant les matériels océaniques (symbolisés par des isochrones synthétiques) aux continents. Excepté lors des collisions, les plaques sont bougées comme des entités propres et rigides. A travers les âges, les seuls éléments évoluant sont les limites de plaques. Elles sont préservées aux cours du temps et suivent une évolution géodynamique consistante tout en formant toujours un réseau interconnecté à travers l?espace. Cette approche appelée "limites de plaques dynamiques" intègre de multiples facteurs parmi lesquels la flottabilité des plaques, les taux d'accrétions aux rides, les courbes de subsidence, les données stratigraphiques et paléobiogéographiques aussi bien que les évènements tectoniques et magmatiques majeurs. Cette méthode offre ainsi un bon contrôle sur la cinématique des plaques et fournit de sévères contraintes au modèle. Cette approche "multi-source" nécessite une organisation et une gestion des données efficaces. Avant le début de cette étude, les masses de données nécessaires était devenues un obstacle difficilement surmontable. Les SIG (Systèmes d?Information Géographiques) et les géo-databases sont des outils informatiques spécialement dédiés à la gestion, au stockage et à l?analyse des données spatialement référencées et de leurs attributs. Grâce au développement dans ArcGIS de la base de données PaleoDyn nous avons pu convertir cette masse de données discontinues en informations géodynamiques précieuses et facilement accessibles pour la création des reconstructions. Dans le même temps, grâce à des outils spécialement développés, nous avons, tout à la fois, facilité le travail de reconstruction (tâches automatisées) et amélioré le modèle en développant fortement le contrôle cinématique par la création de modèles de vitesses des plaques. Sur la base des 340 terranes nouvellement définis, nous avons ainsi développé un set de 35 reconstructions auxquelles est toujours associé un modèle de vitesse. Grâce à cet ensemble de données unique, nous pouvons maintenant aborder des problématiques majeurs de la géologie moderne telles que l?étude des variations du niveau marin et des changements climatiques. Nous avons commencé par aborder un autre problème majeur (et non définitivement élucidé!) de la tectonique moderne: les mécanismes contrôlant les mouvements des plaques. Nous avons pu observer que, tout au long de l?histoire de la terre, les pôles de rotation des plaques (décrivant les mouvements des plaques à la surface de la terre) tendent à se répartir le long d'une bande allant du Pacifique Nord au Nord de l'Amérique du Sud, l'Atlantique Central, l'Afrique du Nord, l'Asie Centrale jusqu'au Japon. Fondamentalement, cette répartition signifie que les plaques ont tendance à fuir ce plan médian. En l'absence d'un biais méthodologique que nous n'aurions pas identifié, nous avons interprété ce phénomène comme reflétant l'influence séculaire de la Lune sur le mouvement des plaques. La Lune sur le mouvement des plaques. Le domaine océanique est la clé de voute de notre modèle. Nous avons attaché un intérêt tout particulier à le reconstruire avec beaucoup de détails. Dans ce modèle, la croûte océanique est préservée d?une reconstruction à l?autre. Le matériel crustal y est symbolisé sous la forme d?isochrones synthétiques dont nous connaissons les âges. Nous avons également reconstruit les marges (actives ou passives), les rides médio-océaniques et les subductions intra-océaniques. En utilisant ce set de données très détaillé, nous avons pu développer des modèles bathymétriques 3-D unique offrant une précision bien supérieure aux précédents.<br/><br/>Palinspastic reconstructions offer an ideal framework for geological, geographical, oceanographic and climatology studies. As historians of the Earth, "reconstructers" try to decipher the past. Since they know that continents are moving, geologists a trying to retrieve the continents distributions through ages. If Wegener?s view of continent motions was revolutionary at the beginning of the 20th century, we know, since the Early 1960?s that continents are not drifting without goal in the oceanic realm but are included in a larger set including, all at once, the oceanic and the continental crust: the tectonic plates. Unfortunately, mainly due to technical and historical issues, this idea seems not to receive a sufficient echo among our particularly concerned community. However, we are intimately convinced that, by applying specific methods and principles we can escape the traditional "Wegenerian" point of view to, at last, reach real plate tectonics. This is the main aim of this study to defend this point of view by exposing, with all necessary details, our methods and tools. Starting with the paleomagnetic and paleogeographic data classically used in reconstruction studies, we developed a modern methodology placing the plates and their kinematics at the centre of the issue. Using assemblies of continents (referred as "key assemblies") as anchors distributed all along the scope of our study (ranging from Eocene time to Cambrian time) we develop geodynamic scenarios leading from one to the next, from the past to the present. In between, lithospheric plates are progressively reconstructed by adding/removing oceanic material (symbolized by synthetic isochrones) to major continents. Except during collisions, plates are moved as single rigid entities. The only evolving elements are the plate boundaries which are preserved and follow a consistent geodynamical evolution through time and form an interconnected network through space. This "dynamic plate boundaries" approach integrates plate buoyancy factors, oceans spreading rates, subsidence patterns, stratigraphic and paleobiogeographic data, as well as major tectonic and magmatic events. It offers a good control on plate kinematics and provides severe constraints for the model. This multi-sources approach requires an efficient data management. Prior to this study, the critical mass of necessary data became a sorely surmountable obstacle. GIS and geodatabases are modern informatics tools of specifically devoted to store, analyze and manage data and associated attributes spatially referenced on the Earth. By developing the PaleoDyn database in ArcGIS software we converted the mass of scattered data offered by the geological records into valuable geodynamical information easily accessible for reconstructions creation. In the same time, by programming specific tools we, all at once, facilitated the reconstruction work (tasks automation) and enhanced the model (by highly increasing the kinematic control of plate motions thanks to plate velocity models). Based on the 340 terranes properly defined, we developed a revised set of 35 reconstructions associated to their own velocity models. Using this unique dataset we are now able to tackle major issues of the geology (such as the global sea-level variations and climate changes). We started by studying one of the major unsolved issues of the modern plate tectonics: the driving mechanism of plate motions. We observed that, all along the Earth?s history, plates rotation poles (describing plate motions across the Earth?s surface) tend to follow a slight linear distribution along a band going from the Northern Pacific through Northern South-America, Central Atlantic, Northern Africa, Central Asia up to Japan. Basically, it sighifies that plates tend to escape this median plan. In the absence of a non-identified methodological bias, we interpreted it as the potential secular influence ot the Moon on plate motions. The oceanic realms are the cornerstone of our model and we attached a particular interest to reconstruct them with many details. In this model, the oceanic crust is preserved from one reconstruction to the next. The crustal material is symbolised by the synthetic isochrons from which we know the ages. We also reconstruct the margins (active or passive), ridges and intra-oceanic subductions. Using this detailed oceanic dataset, we developed unique 3-D bathymetric models offering a better precision than all the previously existing ones.
Resumo:
Tämän tutkimuksen aiheena on tilintarkastuksen historiallinen kehittyminen Suomessa runsaan sadan vuoden aikana. Tutkimuksen tavoitteena on analysoida osakeyhtiön tilintarkastuksen kehitystä ja yhdistää vuosisadan kehityspiirteet tilintarkastuksen kokonaiskuvaksi. Tutkittava periodi alkaa 1800-luvun lopulta ja päättyy 2000-luvun taitteeseen. Tutkimuksessa tarkastellaan suomalaista tilintarkastusinstituutiota, joka jaetaan kolmeen osaan: tilintarkastusta säätelevään normistoon (normit), tilintarkastajajärjestelmään (toimijat) ja tilintarkastuksen sisältöön (tehtävät). Tutkimuksessa tavoitellaan vastauksia kysymyksiin: mitä tarkastettiin, milloin tarkastettiin, kuka tarkasti ja miten tarkastettiin eri aikakausina? Tutkimus perustuu historialliseen lähdeaineistoon, jonka muodostavat tutkimusajanjakson lainsäädäntö, lainvalmisteluasiakirjat, viranomaisten ohjeet ja päätökset, alan järjestöjen suositukset, ammattilehtien artikkelit sekä laskentatoimen ja tilintarkastuksen ammattikirjallisuus. Metodologisesti tutkimus on teoreettinen, kvalitatiivinen historiantutkimus, jossa lähdeaineistoa käsitellään lähdekriittisesti ja osittain sisältöanalyysin keinoin. Tilintarkastusta säätelevässä normistossa keskeisiä lakeja ovat olleet osakeyhtiölaki, kirjanpitolaki ja tilintarkastuslaki. Lakisääteinen tilintarkastus alkoi vuoden 1895 osakeyhtiölaista, joka uudistui vuonna 1978 ja jälleen vuonna 1997. Kirjanpitolainsäädäntö on uudistunut viidesti: 1925 ja 1928, 1945, 1973, 1993 sekä 1997. Vuoden 1994 tilintarkastuslakiin koottiin tilintarkastuksen säädökset useista laeista. Muita normistoja ovat olleet EY:n direktiivit, Kilan ohjeet, KHT-yhdistyksen suositukset, Keskuskauppakamarin säännökset ja viimeisimpinä IAS- ja ISA-standardit. Ammattimainen tilintarkastajajärjestelmä saatiin maahamme kauppiaskokousten ansiosta. Ammattimaisena tilintarkastuksen toimijana aloitti Suomen Tilintarkastajainyhdistys vuonna 1911, ja sen toimintaa jatkoi KHT-yhdistys vuodesta 1925 alkaen. Tilintarkastajien auktorisointi siirtyi Keskuskauppakamarille vuonna 1924. HTM-tilintarkastajat ovat olleet alalla vuodesta 1950 lähtien. Kauppakamarijärjestö on toiminut hyväksyttyjen tilintarkastajien valvojana koko ammattimaisen tilintarkastustoiminnan ajan. Valtion valvontaa suorittaa VALA (Valtion tilintarkastuslautakunta). Koko tutkittavan periodin ajan auktorisoitujen tilintarkastajien rinnalla osakeyhtiöiden tarkastajina ovat toimineet myös maallikot.Tilintarkastuksen tehtäviin kuului vuoden 1895 osakeyhtiölain mukaan hallinnon ja tilien tarkastus. Myöhemmin sisältö täsmentyi tilinpäätöksen, kirjanpidon ja hallinnon tarkastukseksi. Tutkimusajanjakson alussa tilintarkastus oli manuaalista kaikkien tositteiden prikkausta ja virheiden etsimistä. Myöhemmin tarkastus muuttui pistokokeiksi. Kertatarkastuksesta siirryttiin jatkuvaan valvontatarkastukseen 1900-luvun alkupuolella. Dokumentoinnista ja työpapereista alkaa olla havaintoja 1930-luvulta lähtien. Atk-tarkastus yleistyi 1970- ja 1980-luvuilla, jolloin myös riskianalyyseihin alettiin kiinnittää huomiota. Hallinnon tarkastuksen merkitys on kasvanut kaiken aikaa. Tilintarkastuskertomukset olivat tutkimusajanjakson alussa vapaamuotoisia ja sisällöltään ilmaisurikkaita ja kuvailevia. Kertomus muuttui julkiseksi vuoden 1978 osakeyhtiölain myötä. Myöhemmin KHT-yhdistyksen vakiokertomusmallit yhdenmukaistivat ja pelkistivät raportointia. Tutkimuksen perusteella tilintarkastuksen historia voidaan jakaa kolmeen kauteen, jotka ovat tilintarkastusinstituution rakentumisen kausi (1895 - 1950), vakiintumisen kausi (1951 - 1985) ja kansainvälistymisen ja julkisuuden kausi (1986 alkaen). Tutkimusajanjakson jokaisella vuosikymmenellä keskusteltiin jatkuvasti tilintarkastajien riittävyydestä, alalle pääsyn ja tutkintojen vaikeudesta, tilintarkastajien ammattitaidon tasosta,hallinnon tarkastuksen sisällöstä, tilintarkastuskertomuksesta sekä maallikkotarkastajien asemasta. 1990-luvun keskeisimmät keskusteluaiheet olivat konsultointi, riippumattomuus, odotuskuilu sekä tilintarkastuksen taso ja laadunvalvonta. Analysoitaessa tilintarkastuksen muutoksia runsaan sadan vuoden ajalta voidaan todeta, että tilintarkastuksen ydintehtävät eivät juurikaan ole muuttuneet vuosikymmenien kuluessa. Osakeyhtiön tilintarkastus on edelleenkin laillisuustarkastusta. Sen tarkoituksena on yhä kirjanpidon, tilinpäätöksen ja hallinnon tarkastus. Tilintarkastajat valvovat osakkeenomistajien etua ja raportoivat heille tarkastuksen tuloksista. Tilintarkastuksen ulkoinen maailma sen sijaan on muuttunut vuosikymmenten saatossa. Kansainvälistyminen on lisännyt säännösten määrää, odotuksia ja vaatimuksia on nykyisin enemmän, uusi tekniikka mahdollistaa nopean tiedonkulun ja valvonta on lisääntynyt nykypäivää kohti tultaessa. Tilintarkastajan pätevyys perustuu nykyään tietotekniikan, tietojärjestelmien ja yrityksen toimialantuntemukseen. Runsaan sadan vuoden takaisen lain vaarinpitovaatimuksesta on tultu virtuaaliaikaiseen maailmaan!
Resumo:
Background: Breast cancer mortality has experienced important changes over the last century. Breast cancer occurs in the presence of other competing risks which can influence breast cancer incidence and mortality trends. The aim of the present work is: 1) to assess the impact of breast cancer deaths among mortality from all causes in Catalonia (Spain), by age and birth cohort and 2) to estimate the risk of death from other causes than breast cancer, one of the inputs needed to model breast cancer mortality reduction due to screening or therapeutic interventions. Methods: The multi-decrement life table methodology was used. First, all-cause mortality probabilities were obtained by age and cohort. Then mortality probability for breast cancer was subtracted from the all-cause mortality probabilities to obtain cohort life tables for causes other than breast cancer. These life tables, on one hand, provide an estimate of the risk of dying from competing risks, and on the other hand, permit to assess the impact of breast cancer deaths on all-cause mortality using the ratio of the probability of death for causes other than breast cancer by the all-cause probability of death. Results: There was an increasing impact of breast cancer on mortality in the first part of the 20th century, with a peak for cohorts born in 1945–54 in the 40–49 age groups (for which approximately 24% of mortality was due to breast cancer). Even though for cohorts born after 1955 there was only information for women under 50, it is also important to note that the impact of breast cancer on all-cause mortality decreased for those cohorts. Conclusion: We have quantified the effect of removing breast cancer mortality in different age groups and birth cohorts. Our results are consistent with US findings. We also have obtained an estimate of the risk of dying from competing-causes mortality, which will be used in the assessment of the effect of mammography screening on breast cancer mortality in Catalonia.
Resumo:
Genetics is the study of heredity, which means the study of genes and factors related to all aspects of genes. The scientific history of genetics began with the works of Gregor Mendel in the mid-19th century. Prior to Mendel, genetics was primarily theoretical whilst, after Mendel, the science of genetics was broadened to include experimental genetics. Developments in all fields of genetics and genetic technology in the first half of the 20th century provided a basis for the later developments. In the second half of the 20th century, the molecular background of genetics has become more understandable. Rapid technological advancements, followed by the completion of Human Genome Project, have contributed a great deal to the knowledge of genetic factors and their impact on human life and diseases. Currently, more than 1800 disease genes have been identified, more than 2000 genetic tests have become available, and in conjunction with this at least 350 biotechnology-based products have been released onto the market. Novel technologies, particularly next generation sequencing, have dramatically accelerated the pace of biological research, while at the same time increasing expectations. In this paper, a brief summary of genetic history with short explanations of most popular genetic techniques is given.
Resumo:
Initiée en anthropologie à la fin des années 1970, la notion de pluralisme médical se voit réappropriée par diverses disciplines des sciences humaines, à l'instar des treize contributions de cet ouvrage collectif édité par Robert Jütte. Historiens, sociologues et anthropologues y interviennent à la suite d'un colloque organisé en 2001 en Italie par l'Institut d'histoire de la médecine de la Fondation Robert Bosch et le Centre Italo-Tedesco pour l'Excellence européenne, en collaboration avec le Forum de dialogue Pluralismus in der Medizin. Encore très questionnée et souvent nuancée selon les contextes, la définition du pluralisme médical se situe quelque part entre le fait que différentes formes de soins existent simultanément et s'influencent les unes les autres, et le constat d'une popularité grandissante des médecines alternatives et complémentaires défiant l'hégémonie de la biomédecine - cette situation s'observant plus particulièrement dans les pays occidentaux. C'est dans ce dernier contexte que s'inscrit le volume, dont chacune des contributions examine le phénomène du pluralisme médical soit en Allemagne, en Italie, en France ou en Grande-Bretagne - avec une exception pour l'Inde. La profondeur diachronique adoptée par l'ouvrage, couvrant l'époque pré-moderne à nos jours, offre une exploration élargie des expériences thérapeutiques. Ainsi sont évoqués, d'une part, les tenants de la médecine dite orthodoxe ou conventionnelle, regroupant les praticiens officiels que sont les médecins académiques en première ligne, suivis des chirurgiens, barbiers, apothicaires et sages-femmes; d'autre part sont pris en compte les représentants des médecines complémentaires, alternatives, naturelles ou encore populaires - des homéopathes aux acupuncteurs en passant par les magnétiseurs et les magiciennes guérisseuses. La réflexion sur les concurrences et les complémentarités entre ces acteurs variés, qui fait consensus au sein des contributions, est développée sous divers aspects.
Resumo:
A comparative study of the two published Catalan translations of Charles Dickens’ David Copperfield, the first translated by Josep Carner in 1930 but not published until 1964, and the second by Joan Sellent in 2003. The analysis shows that both translations, magnificent, reflect the unique evolution of the language model that the translators pass on to their readers, an evolution shaped by the complex history of the Catalan language in the 20th century, which is still to be written