938 resultados para Single case
Resumo:
BACKGROUND: Genetic factors play a role in chronic obstructive pulmonary disease (COPD) but are poorly understood. A number of candidate genes have been proposed on the basis of the pathogenesis of COPD. These include the matrix metalloproteinase (MMP) genes which play a role in tissue remodelling and fit in with the protease--antiprotease imbalance theory for the cause of COPD. Previous genetic studies of MMPs in COPD have had inadequate coverage of the genes, and have reported conflicting associations of both single nucleotide polymorphisms (SNPs) and SNP haplotypes, plausibly due to under-powered studies. METHODS: To address these issues we genotyped 26 SNPs, providing comprehensive coverage of reported SNP variation, in MMPs- 1, 9 and 12 from 977 COPD patients and 876 non-diseased smokers of European descent and evaluated their association with disease singly and in haplotype combinations. We used logistic regression to adjust for age, gender, centre and smoking history. RESULTS: Haplotypes of two SNPs in MMP-12 (rs652438 and rs2276109), showed an association with severe/very severe disease, corresponding to GOLD Stages III and IV. CONCLUSIONS: Those with the common A-A haplotype for these two SNPs were at greater risk of developing severe/very severe disease (p = 0.0039) while possession of the minor G variants at either SNP locus had a protective effect (adjusted odds ratio of 0.76; 95% CI 0.61 - 0.94). The A-A haplotype was also associated with significantly lower predicted FEV1 (42.62% versus 44.79%; p = 0.0129). This implicates haplotypes of MMP-12 as modifiers of disease severity.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Background: Protein domains represent the basic units in the evolution of proteins. Domain duplication and shuffling by recombination and fusion, followed by divergence are the most common mechanisms in this process. Such domain fusion and recombination events are predicted to occur only once for a given multidomain architecture. However, other scenarios may be relevant in the evolution of specific proteins, such as convergent evolution of multidomain architectures. With this in mind, we study glutaredoxin (GRX) domains, because these domains of approximately one hundred amino acids are widespread in archaea, bacteria and eukaryotes and participate in fusion proteins. GRXs are responsible for the reduction of protein disulfides or glutathione-protein mixed disulfides and are involved in cellular redox regulation, although their specific roles and targets are often unclear. Results: In this work we analyze the distribution and evolution of GRX proteins in archaea,bacteria and eukaryotes. We study over one thousand GRX proteins, each containing at least one GRX domain, from hundreds of different organisms and trace the origin and evolution of the GRX domain within the tree of life. Conclusion: Our results suggest that single domain GRX proteins of the CGFS and CPYC classes have, each, evolved through duplication and divergence from one initial gene that was present in the last common ancestor of all organisms. Remarkably, we identify a case of convergent evolution in domain architecture that involves the GRX domain. Two independent recombination events of a TRX domain to a GRX domain are likely to have occurred, which is an exception to the dominant mechanism of domain architecture evolution.
Resumo:
The evaluation of investments in advanced technology is one of the most important decision making tasks. The importance is even more pronounced considering the huge budget concerning the strategic, economic and analytic justification in order to shorten design and development time. Choosing the most appropriate technology requires an accurate and reliable system that can lead the decision makers to obtain such a complicated task. Currently, several Information and Communication Technologies (ICTs) manufacturers that design global products are seeking local firms to act as their sales and services representatives (called distributors) to the end user. At the same time, the end user or customer is also searching for the best possible deal for their investment in ICT's projects. Therefore, the objective of this research is to present a holistic decision support system to assist the decision maker in Small and Medium Enterprises (SMEs) - working either as individual decision makers or in a group - in the evaluation of the investment to become an ICT's distributor or an ICT's end user. The model is composed of the Delphi/MAH (Maximising Agreement Heuristic) Analysis, a well-known quantitative method in Group Support System (GSS), which is applied to gather the average ranking data from amongst Decision Makers (DMs). After that the Analytic Network Process (ANP) analysis is brought in to analyse holistically: it performs quantitative and qualitative analysis simultaneously. The illustrative data are obtained from industrial entrepreneurs by using the Group Support System (GSS) laboratory facilities at Lappeenranta University of Technology, Finland and in Thailand. The result of the research, which is currently implemented in Thailand, can provide benefits to the industry in the evaluation of becoming an ICT's distributor or an ICT's end user, particularly in the assessment of the Enterprise Resource Planning (ERP) programme. After the model is put to test with an in-depth collaboration with industrial entrepreneurs in Finland and Thailand, the sensitivity analysis is also performed to validate the robustness of the model. The contribution of this research is in developing a new approach and the Delphi/MAH software to obtain an analysis of the value of becoming an ERP distributor or end user that is flexible and applicable to entrepreneurs, who are looking for the most appropriate investment to become an ERP distributor or end user. The main advantage of this research over others is that the model can deliver the value of becoming an ERP distributor or end user in a single number which makes it easier for DMs to choose the most appropriate ERP vendor. The associated advantage is that the model can include qualitative data as well as quantitative data, as the results from using quantitative data alone can be misleading and inadequate. There is a need to utilise quantitative and qualitative analysis together, as can be seen from the case studies.
Resumo:
Electrical impedance tomography (EIT) is a non-invasive imaging technique that can measure cardiac-related intra-thoracic impedance changes. EIT-based cardiac output estimation relies on the assumption that the amplitude of the impedance change in the ventricular region is representative of stroke volume (SV). However, other factors such as heart motion can significantly affect this ventricular impedance change. In the present case study, a magnetic resonance imaging-based dynamic bio-impedance model fitting the morphology of a single male subject was built. Simulations were performed to evaluate the contribution of heart motion and its influence on EIT-based SV estimation. Myocardial deformation was found to be the main contributor to the ventricular impedance change (56%). However, motion-induced impedance changes showed a strong correlation (r = 0.978) with left ventricular volume. We explained this by the quasi-incompressibility of blood and myocardium. As a result, EIT achieved excellent accuracy in estimating a wide range of simulated SV values (error distribution of 0.57 ± 2.19 ml (1.02 ± 2.62%) and correlation of r = 0.996 after a two-point calibration was applied to convert impedance values to millilitres). As the model was based on one single subject, the strong correlation found between motion-induced changes and ventricular volume remains to be verified in larger datasets.
Resumo:
Les traités scientifiques ne font que depuis peu d'années l'objet d'études en histoire des sciences. Pourtant, ces traités ont énormément à apporter car ils renseignent sur la manière de raisonner des auteurs, ainsi que sur le développement d'une discipline. Dans ce travail de doctorat, différents traités des maladies du système nerveux ont été dépouillés, notamment le traité de Sémiologie des affections du système nerveux (1914) de Jules Dejerine (1849-1917). Ce traité a été analysé de trois manières différentes. Il a tout d'abord été comparé à une édition précédente publiée sous forme de chapitre (1901), révélant un large remodelage du contenu du traité, suggérant une évolution rapide de la discipline neurologique en l'espace de quelques années. Deuxièmement, l'analyse de la Sémiologie a permis de recréer un réseau de professionnels avec qui Jules Dejerine était en contact et, en parcourant les livres publiés par ces auteurs, il a été possible de décrire de quelle manière ces auteurs se citent mutuellement. Finalement, ces livres contiennent de nombreuses illustrations, qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui illustrent des patients ou des pièces anatomiques pour « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la lésion, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Grâce à ces trois axes de recherche, un traité devient un outil de travail dynamique, qui évolue au fil des rééditions, influencé par les critiques et commentaires retrouvés dans d'autres traités et articles, et par les progrès accomplis dans la discipline traitée. Des, passages et certaines images de l'ouvrage circulent également de traité en traité et véhiculent l'autorité de l'auteur de ces passages et images qui en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Au début du XXe siècle, la neurologie est une jeune spécialité médicale qui se développe rapidement. Les différents médecins publient des traités, communiquent entre eux et échangent leurs données. Un traité scientifique est un outil de travail dynamique qui évolue avec les rééditions et le développement d'une discipline. Ces ouvrages recèlent toutes sortes d'informations et leur analyse ne fait que depuis peu de temps l'objet d'études en histoire des sciences. Ces traités regorgent notamment d'illustrations qui sont associées à la notion de « preuve » : les auteurs utilisent des images sous forme de dessins, de photographies ou de schémas qui représentent des patients ou des pièces anatomiques afin de « montrer » la maladie ou la lésion. Chaque illustration a un rôle à jouer pour décrire la pathologie, montrer la progression de la maladie et elle aide le médecin à poser le diagnostic. Les auteurs des traités, qui viennent d'Europe et d'Amérique du Nord, se citent mutuellement, permettant au lecteur de recréer leur réseau de professionnels au niveau international. De plus, comme ces auteurs réutilisent les observations et les illustrations des autres, celles-ci circulent de traité en traité et en viennent à représenter la maladie. Ce transfert d'images joue également un rôle dans la standardisation du diagnostic et dans l'unification de la neurologie à travers le monde occidental au début du XXe siècle, une période charnière pour l'histoire de la médecine. -- Until recently, the study of textbooks has been neglected in the history of the sciences. However, textbooks can provide fruitful sources of information regarding the way authors work and the development of a particular discipline. This dissertation reviews editions of a single textbook, the Sémiologie des affections du système nerveux (1914) by Jules Dejerine (1849-1917). This textbook enabled the description of three axes of research. Firstly, by comparing the book to a first edition published as a chapter, one can acknowledge an extensive remodeling of the content of the book, suggesting a vast increase in knowledge over time. Secondly, by looking at the authors that Dejerine quotes repeatedly, it becomes possible to recreate his professional network, to review the works of these authors and to determine how they cross-reference each other. Thirdly, these textbooks contain numerous medical illustrations, which are linked with the concept of "proof;" the authors demonstrate a willingness to "show" the lesion or the pathology by publishing an image. Drawings, schematic representations, radiographies, or photographs of patients or of anatomical preparations all have their own purpose in describing the lesion and the progression of the disease. They assist in the diagnosis of the pathology. By looking at all of these aspects, it is therefore possible to conclude that a neurological textbook is a dynamic object that evolves through re-editions, comments and references found in other textbooks and by the circulations of parts of these books, such as the images. The illustrations also carry the author's authority, since their ongoing use claims that the work by the owner of the image has been endorsed by others. At the same time, it validates the borrowers' arguments. By using medical illustrations from different authors worldwide, the authors are also making a claim to a common language, to a similar way of examining patients, and about how much they depend on medical imagery to prove their points. In that sense, by focusing upon these textbooks, one can affirm that neurology already existed as a worldwide specialty at the turn of the twentieth century. Much more than mere accompaniments to the text, images were of paramount importance to the unification of neurology.
Resumo:
Asiakaspalvelun tarjoamisesta Internet-verkon kautta tulee jatkuvasti tärkeämpää. Aitoa asiakashyötyä tuottavien palvelujen pystyttäminen ja tuottaminen on pienyritysten resursseilla vähintäänkin vaikeaa ja riskialtista. Mahdollisuus käyttää vapaaseen käyttöön lisensoituja avoimen lähdekoodin ohjelmistoja asiakkaille tarjottavien palvelujen perustana madaltaa näinollen pienyritysten kynnystä tarjota palvelua Internet-verkossa. Yrityksen tarjoamien palvelujen perustaksi on nykyään saatavilla jo kokonaisia valmiita avoimeen lähdekoodiin perustuvia ohjelmistosovelluksia. Suurin osa niistä on kuitenkin tehty jotakin rajattua tarkoitusta varten. Pyrittäessä laajentamaan asiakkaille tarjottua palvelua huomataankin tällöin, että ohjelmistosovelluksen laajentaminen muodostaa alkuperäistäkin korkeamman kynnyksen. Toisen ohjelmiston integrointi alkuperäisen kanssa ei sekään ole mahdollinen vaihtoehto – vaikka sellainen uuden palvelun perustaksi löytyisikin. WWW-sisällönhallintajärjestelmät sopivat yleiskäyttöisyytensä ansiosta hyvinkin vaihtelevien palveluiden perustaksi. Yrityksen verkkopalvelu voidaan toteuttaa esimerkiksi vapaasti saatavaan Plone-sisällönhallintajärjestelmään perustuen. Tällöin palvelujen laajentamisen ja uusien tarjoamisen kynnys oletettavasti madaltuu ratkaisevasti, järjestelmän valmiiksi sisältämien monipuolisten toimintojen ansiosta. Paikallisen pienyrityksen verkkopalvelua toteuttaessa todettiin Plonen olevan hyvin tarkoitukseen sopiva. Vähänkin merkittävämmät järjestelmään tehtävät muutokset edellyttävät kuitenkin varsin syvällistä perehtymistä sen osiin ja toimintaan. Koska tarjottavan palvelun tuli olla mahdollisimman helppo lähestyä ja käyttää, järjestelmää oli muun tarvittavan räätälöinnin lisäksi vielä muutettava yksinkertaisemmaksi: Esimerkiksi järjestelmän tarjoamasta valmiista käyttöliittymästä oli räätälöitävä yksinkertaistettu palvelunkäyttöliittymä. Myös palvelun ylläpitäjien koulutukseen oli panostettava. Järjestelmän ylläpidosta tehtiin palvelusopimus, koska asiakkaalla ei ole tarvittavaa teknistä osaamista.
Resumo:
Tutkimuksen tavoitteena on selvittää työminäkuvan ja strategiaprosessin välistä yhteyttä laadullisen tutkimuksen keinoin. Tutkimus on luonteeltaan fenomenografinen eli se keskittyy selvittämään, miten ihmiset kokevat maailman ilmiöineen. Aineiston hankinnassa on hyödynnetty triangulaatiota eli ilmiötä tarkastellaan kolmen aineiston valossa. Aineistoa on kerätty haastatteluin, osallistuvalla havainnoinnilla sekä tutustumalla valmiisiin dokumentteihin, ja analysoitu koodaten ja luokitellen. Koska työntekijän ammatillinen identiteetti vaikuttaa hänen tapaansa ratkaista ongelmia ja tehdä päätöksiä, voidaan tutkimustuloksiin perustuen sanoa, että työminäkuva heijastuu strategiaprosesissa näkyvään ajatteluun ja käyttäytymiseen. Tulokset osoittavat myös, että strateginen työskentely kehittää työminäkuvaa edelleen. Resurssiperusteisen strategianmuodostuksen teoriaa soveltaen voidaan todeta olevan kyse jatkuvasta prosessissa, jossa kehitystä tapahtuu sekä organisaatio- että yksilötasolla
Resumo:
Alueellinen yrityskeskittymä sisältää monenlaisia yhteistyöverkostoja siinä toimivien yritysten välillä. Olemassa olevien verkosto- ja tietojohtamisteorioiden pohjalta yhteistyöverkostot jaettiin niiden perustehtävän mukaan kolmeen eri päätyyppiin, jotka ovat tuottaja-, kehittäjä- ja innovaatioverkosto. Tutkimusongelmana oli määrittää, voidaanko verkostoja eritellä niiden perustehtävän mukaan ja näkyykö perustehtävän erilaisuus niiden organisoitumis- ja kommunikointitavassa. Tutkimuskohteena oli kasvava puualan keskittymä, Imatran Seudun Koivukeskus. Tutkimusmenetelmänä käytettiin tapaustutkimusta ja aineistonkeruumenetelmänä teemahaastattelua. Aineistoa käsiteltiin käyttämällä menetelmänä profilointia ja teemoittelua. Tutkimuksen perusteella voitiin alueelta erottaa selvästi kolme verkostojen päätyyppiä, jotka toimivat alueella tietoa luovana, välittävänä ja soveltavana tasona. Päätyyppien välillä havaittiin eroja, kun kriteereinä käytettiin verkostojen suhteita, osaamista, tiedonkulkua ja johtajuutta. Koivukeskukselle erityisen tärkeänä verkostotyyppinä pidettiin kehittäjäverkostoa, sillä se toimii alueen sosiaalisen pääoman kasvualustana ja täten auttaa muiden verkostotyyppien kehittymistä. Mikäli kaikki päätyypit saadaan toimi-maan tehokkaasti, alueen innovaatioverkostossa syntyvät uudet prosessi- ja tuoteinnovaatiot ovat välittömästi siirrettävissä tehostamaan tuotantoa. Alueellinen yrityskeskittymä sisältää kaikkia edellä mainittuja verkostotyyppejä, ja yksittäinen toimija voi kuulua samanaikaisesti kaikkiin verkostotyyppeihin. Johtopäätöksenä esitettiin, että alueellisen yrityskeskittymän kilpailuetu syntyy alueen sisälle muodostuvien tuottaja-, kehittäjä- ja innovaatioverkoston kautta. Alueellisen yrityskeskittymän verkostopohjaisen kehittämisen avuksi kehitettiin yksinkertainen työkalu.
Resumo:
Työn tavoitteena oli selvittää, miten kohdeyrityksen tulisi mitata suorituskykyään. Tutkielma toteutettiin toiminta-analyyttiseen lähestymistapaan kuuluvana toimintatutkimuksena. Kohdeyrityksestä valittiin yksi osasto, jolle suunniteltiin ja toteutettiin operatiivinen suorituskykymittaristo. Tämän projektin aikana pyrittiin keräämään kokemuksia, joista olisi hyötyä muiden osastojen ja koko yrityksen mittaristojen rakentamisessa.Työn teoriaosan alussa suorituskyvyn mittaus liitetään osaksi laajempaa johdon laskentatoimen käsitettä. Tämän jälkeen käsitellään tarkemmin mittariston rakentamisen teoriaa. Yksittäiset operatiiviset suorituskykymittarit johdetaan yrityksen strategiasta. Mittareiden välisten riippuvuussuhteiden esittäminen havainnollisesti helpottaa mittariston suunnittelua. Rajoituksia mittarivalinnoille asettavat yrityksen käytössä olevat tietojärjestelmät sekä henkilökunnan tottumukset kirjata työskentelyynsä liittyviä tietoja järjestelmiin.Tutkimuksen perusteella voidaan todeta, että mittariston suunnitteluryhmään tulisi valita toiminnan kehittämisestä kiinnostuneita henkilöitä. Resurssit on arvioitava huolella ja tarpeen vaatiessa voidaan turvautua ulkopuolisen suunnittelijan apuun. Eri osastojen ja koko yrityksen suorituskykymittaristojen rakentamista koordinoimaan tulee nimetä henkilö, joka varmistaa tiedonkulun eri suunnitteluryhmien välillä.
Resumo:
The objective of the thesis was to create a cost accounting system which also takes into account capital costs. The system had to be suitable for the case company. The thesis aims at finding out what kind of a cost accounting system is needed in order to calculate the total costs for the various services of the company. The thesis follows the qualitative research principles. The starting point is depicting of actual life. The research subjects are units of actual life, and the objective is to achieve a result that can also be applied in practice. The thesis studies the internal accounting of the company, cost accounting in particular. The thesis also studies the theories of traditional cost accounting and activity-based cost accounting. When studying the theories, they are also compared with the practices used in the case company. As a result of the thesis, a cost accounting system that the company may use in practice was generated. The system principles do not adhere to any single theory: instead, the system is a combination of the traditional cost accounting and the activity-based cost accounting.
Resumo:
BACKGROUND: Switzerland is a region in which alveolar echinococcosis (AE) is endemic. Studies evaluating outcomes after liver resection (LR) for AE are scarce. The aim of this study was to assess the short- and long-term outcomes of AE patients after LR in a single tertiary referral center. METHODS: We retrospectively analyzed data pertaining to all patients with liver AE who were treated with LR at our institution between January 1992 and December 2013. Patient demographics, intraoperative data, extent of LR procedures (major vs. minor LR), postoperative outcomes, and negative histological margin (R0) resection rate were recorded in a database. Recurrence rates after LR were analyzed. RESULTS: LR was performed in 59 patients diagnosed with hepatic AE (56 complete surgeries, 3 reduction surgeries). Postoperative morbidity and mortality were observed in 34 % (25 % grade I-II, 9 % grade III-IV) and 2 % of the patients, respectively. R0 (complete) resection rate was 71 % (n = 42), and R1/R2 resection rate was 29 % (n = 17). Extra-hepatic recurrence occurred in 1 case (lung) after R0 resection. In cases of R1/R2 resection, 7 intra-hepatic disease progressions occurred with a median time of 10 months (IQR 6-11 months). Long-term (more than 1 year) benzimidazole treatment stabilized the disease in 64 % (9/14) of patients with R1 status. The overall survival rate was 97 %. CONCLUSIONS: Liver AE can be safely and definitively treated with LR, provided that R0 resection is achieved. In cases of R1 resection, benzimidazole therapy seems to be effective in stabilizing the intra-hepatic disease and preventing extra-hepatic recurrence.
Resumo:
Following protection measures implemented since the 1970s, large carnivores are currently increasing in number and returning to areas from which they were absent for decades or even centuries. Monitoring programmes for these species rely extensively on non-invasive sampling and genotyping. However, attempts to connect results of such studies at larger spatial or temporal scales often suffer from the incompatibility of genetic markers implemented by researchers in different laboratories. This is particularly critical for long-distance dispersers, revealing the need for harmonized monitoring schemes that would enable the understanding of gene flow and dispersal dynamics. Based on a review of genetic studies on grey wolves Canis lupus from Europe, we provide an overview of the genetic markers currently in use, and identify opportunities and hurdles for studies based on continent-scale datasets. Our results highlight an urgent need for harmonization of methods to enable transnational research based on data that have already been collected, and to allow these data to be linked to material collected in the future. We suggest timely standardization of newly developed genotyping approaches, and propose that action is directed towards the establishment of shared single nucleotide polymorphism panels, next-generation sequencing of microsatellites, a common reference sample collection and an online database for data exchange. Enhanced cooperation among genetic researchers dealing with large carnivores in consortia would facilitate streamlining of methods, their faster and wider adoption, and production of results at the large spatial scales that ultimately matter for the conservation of these charismatic species.
Resumo:
Introduction: Patients with Cystic fibrosis (CF) are more susceptible to pathogens like P. aeruginosa (PA). PA primo-infection requires particular attention as failure in eradication is associated with accelerated lung deterioration. The main aim of this study is to assess the rate of PA eradication according to our particular protocol with inhaled tobramycin and oral ciprofloxacin, as there is no consensus in the literature on what eradication protocol is optimal. Methods: Retrospective single centre study with data analysis from June 1st 2007 to June 1st 2011 of patients with PA primo-infection exclusively treated by 3 x 28 days of inhaled tobramycin and oral ciprofloxacin for the first and last 21 days. Success in eradication is defined by ≥ 3 negative bacteriologies for 6 months after the beginning of the protocol. If ≥ 1 bacteriology is positive, we consider the eradication as a failure. Results: Out of 41 patients, 18 followed the eradication protocol and were included in our analysis (7 girls (38.9%) and 11 boys (61.1%)). Boys had 12 primo-infections and girls had 8. Among these 20 primo-infections, 16 (80%) had an overall success in eradication and 4 (20%) a failure. There was no significant statistical differences in age between these groups (t-test = 0.07, p = 0.94), nor for FEV1% (t-test = 0.96, p = 0.41) or BMI (t-test = 1.35, p = 0.27). Rate of success was 100% for girls and 66.6% for boys. Conclusion: Our protocol succeeded in an overall eradication rate of 80%, without statistical significant impact on FEV1 % and BMI values. However, there was a sex difference with eradication rates in girls (100%) and boys (66.6%). A sex difference has not yet been reported in the literature. This should be evaluated in further studies.
Resumo:
Objective The present study was aimed at describing a case series where a preoperative diagnosis of intestinal complications secondary to accidentally ingested dietary foreign bodies was made by multidetector-row computed tomography (MDCT), with emphasis on complementary findings yielded by volume rendering techniques (VRT) and curved multiplanar reconstructions (MPR). Materials and Methods The authors retrospectively assessed five patients with surgically confirmed intestinal complications (perforation and /or obstruction) secondary to unsuspected ingested dietary foreign bodies, consecutively assisted in their institution between 2010 and 2012. Demographic, clinical, laboratory and radiological data were analyzed. VRT and curved MPR were subsequently performed. Results Preoperative diagnosis of intestinal complications was originally performed in all cases. In one case the presence of a foreign body was not initially identified as the causal factor, and the use of complementary techniques facilitated its retrospective identification. In all cases these tools allowed a better depiction of the entire foreign bodies on a single image section, contributing to the assessment of their morphology. Conclusion Although the use of complementary techniques has not had a direct impact on diagnostic performance in most cases of this series, they may provide a better depiction of foreign bodies' morphology on a single image section.