864 resultados para Tree based intercrop systems
Resumo:
Four standard radiation qualities (from RQA 3 to RQA 9) were used to compare the imaging performance of a computed radiography (CR) system (general purpose and high resolution phosphor plates of a Kodak CR 9000 system), a selenium-based direct flat panel detector (Kodak Direct View DR 9000), and a conventional screen-film system (Kodak T-MAT L/RA film with a 3M Trimax Regular screen of speed 400) in conventional radiography. Reference exposure levels were chosen according to the manufacturer's recommendations to be representative of clinical practice (exposure index of 1700 for digital systems and a film optical density of 1.4). With the exception of the RQA 3 beam quality, the exposure levels needed to produce a mean digital signal of 1700 were higher than those needed to obtain a mean film optical density of 1.4. In spite of intense developments in the field of digital detectors, screen-film systems are still very efficient detectors for most of the beam qualities used in radiology. An important outcome of this study is the behavior of the detective quantum efficiency of the digital radiography (DR) system as a function of beam energy. The practice of users to increase beam energy when switching from a screen-film system to a CR system, in order to improve the compromise between patient dose and image quality, might not be appropriate when switching from screen-film to selenium-based DR systems.
Resumo:
UV−excimer laser photoablation was used, in combination with surface blocking techniques, to pattern proteins on the surfaces of polyimide and poly(ethylene terephthalate). This technique involves physical adsorption of avidin through laser-defined openings in low-temperature laminates or adsorbed protein blocking layers. Visualization of biomolecular patterns were monitored using avidin and fluorescein-labeled biotin as a model receptor−ligand couple. Adsorbed proteins could be shown to bind to UV-laser-treated polymer surfaces up to three times higher than on commercially available polymers. UV-laser photoablation was also used for the generation of three-dimensional structure, which leads to the possibility of biomolecule patterning within polymer-based microanalytical systems. The simplicity and easy handling of the described technique facilitate its application in microdiagnostic devices.
Resumo:
OBJECTIVE: Accurate identification of major trauma patients in the prehospital setting positively affects survival and resource utilization. Triage algorithms using predictive criteria of injury severity have been identified in paramedic-based prehospital systems. Our rescue system is based on prehospital paramedics and emergency physicians. The aim of this study was to evaluate the accuracy of the prehospital triage performed by physicians and to identify the predictive factors leading to errors of triage.METHODS: Retrospective study of trauma patients triaged by physicians. Prehospital triage was analyzed using criteria defining major trauma victims (MTVs, Injury Severity Score >15, admission to ICU, need for immediate surgery and death within 48 h). Adequate triage was defined as MTVs oriented to the trauma centre or non-MTV (NMTV) oriented to regional hospitals.RESULTS: One thousand six hundred and eighti-five patients (blunt trauma 96%) were included (558 MTV and 1127 NMTV). Triage was adequate in 1455 patients (86.4%). Overtriage occurred in 171 cases (10.1%) and undertriage in 59 cases (3.5%). Sensitivity and specificity was 90 and 85%, respectively, whereas positive predictive value and negative predictive value were 75 and 94%, respectively. Using logistic regression analysis, significant (P<0.05) predictors of undertriage were head or thorax injuries (odds ratio >2.5). Predictors of overtriage were paediatric age group, pedestrian or 2 wheel-vehicle road traffic accidents (odds ratio >2.0).CONCLUSION: Physicians using clinical judgement provide effective prehospital triage of trauma patients. Only a few factors predicting errors in triage process were identified in this study.
Resumo:
Gene transfer-based therapeutic approaches have greatly benefited from the ability of some viral vectors to efficiently integrate within the cell genome and ensure persistent transmission of newly acquired transgenes to the target cell progeny. However, integration of provirus has been associated with epigenetic repercussions that may influence the expression of both the transgene and cellular genes close to vector integration loci. The exploitation of genetic insulator elements may overcome both issues through their ability to act as barriers that limit transgene silencing and/or as enhancer-blockers preventing the activation of endogenous genes by the vector enhancer. We established quantitative plasmid-based assay systems to screen enhancer-blocker and barrier genetic elements. Short synthetic insulators that bind to nuclear factor-I protein family transcription factors were identified to exert both enhancer-blocker and barrier functions, and were compared to binding sites for the insulator protein CTCF (CCCTC-binding factor). Gamma-retroviral vectors enclosing these insulator elements were produced at titers similar to their non-insulated counterparts and proved to be less genotoxic in an in vitro immortalization assay, yielding lower activation of Evi1 oncogene expression and reduced clonal expansion of bone marrow cells.
Resumo:
In recent years, Semantic Web (SW) research has resulted in significant outcomes. Various industries have adopted SW technologies, while the ‘deep web’ is still pursuing the critical transformation point, in which the majority of data found on the deep web will be exploited through SW value layers. In this article we analyse the SW applications from a ‘market’ perspective. We are setting the key requirements for real-world information systems that are SW-enabled and we discuss the major difficulties for the SW uptake that has been delayed. This article contributes to the literature of SW and knowledge management providing a context for discourse towards best practices on SW-based information systems.
Resumo:
DnaSP, DNA Sequence Polymorphism, is a software package for the analysis of nucleotide polymorphism from aligned DNA sequence data. DnaSP can estimate several measures of DNA sequence variation within and between populations (in noncoding, synonymous or nonsynonymous sites, or in various sorts of codon positions), as well as linkage disequilibrium, recombination, gene flow and gene conversion parameters. DnaSP can also carry out several tests of neutrality: Hudson, Kreitman and Aguadé (1987), Tajima (1989), McDonald and Kreitman (1991), Fu and Li (1993), and Fu (1997) tests. Additionally, DnaSP can estimate the confidence intervals of some test-statistics by the coalescent. The results of the analyses are displayed on tabular and graphic form.
Resumo:
Tässä diplomityössä tutkitaan tehdasjärjestelmien uusintaan vaikuttavia tekijöitä, kun tarkoituksena on siirtyä yhtenäisiin tuotepohjaisiin järjestelmäratkaisuihin usean paperitehtaan ympäristössä. Paperitehtaan tehdasjärjestelmän avulla hallitaan tehtaan toimintaa alkaen tilauksen saapumisesta tehtaalle aina valmiin tuotteen varastointiin sekä asiakkaalle toimitukseen saakka. Työn pääasiallinen tarkoitus on tutkia erilaisten teknisten arkkitehtuurien, kuten keskitetyn tai hajautetun palvelinympäristön vaikutusta järjestelmän käyttövarmuuteen, käytettävyyteen sekä järjestelmän elinkaaren aikaisiin kustannuksiin. Tietojärjestelmien keskittämiseen ja konsolidointiin liittyen tutkitaan mm. vaikutuksia liityntöjen ja raportoinnin hallintaan sekä tietoverkoille asetettavia vaatimuksia. Työssä tutkitaan myös tuotepohjaisten järjestelmien räätälöintitarpeita ja siihen liittyvää vaatimusmäärittelyä. Työssä esitettyjä näkemyksiä voidaan käyttää päätösten tukena, kun pohditaan toteutettavan tietojärjestelmän teknisen infrastruktuurin optimaalisinta rakennetta.
Resumo:
Diplomityön tavoitteena oli luoda suunnitelma elektronisen hankintatoimen aloittamiseksi, analysoimalla nykyisiä ostoprosesseja ja konsernin laajuista elektronista hankintajärjestelmää. Työ pohjautuu yritysten väliseen elektroniseen kauppaan, elektroniseen hankintatoimeen ja systeemisuunnitteluun liittyvään kirjallisuuteen. Työssä tehdyn suunnitelman tarkoituksena on auttaa Siemens Oy:tä siirtymään uuteen elektroniseen ostotoimintaan. Elektroniselle ostotoiminnalle suunniteltiin tavoitteet ja näitä vastaavat vaatimukset. Elektronisen hankintajärjestelmän analysointi perustuu kirjallisuudessa esitettyihin järjestelmän elinkaari-mallin vaiheisiin. Analysoinnin tarkoituksena oli saada selville järjestelmän soveltuvuus Siemens Oy: n liiketoimintaympäristöön, prosesseihin ja vaatimuksiin. Elektronisen hankintatoiminnan etuja ovat liiketoiminta prosessien johtamisen parantuminen, kustannusten väheneminen sekä taloudellisen suorituskyvyn lisääntyminen. Elektronisen hankintatoiminnan aloittaminen vaatii kuitenkin huolellista suunnittelua. Työssä tehdyt suunnitelmat ja analysoinnit auttavat arvioidessa järjestelmän sopivuutta Siemens Oy: n vaatimuksiin. Oikean ja toimivan järjestelmän valinta ei kuitenkaan takaa elektronisesta hankintatoiminnasta hyötymistä. Tärkeimpiä jatkotoimenpiteitä onkin suorittaa kustannus/hyöty analyysi ja arvioida toimittajien halukkuutta ja kykyjä osallistua markkinapaikkaan.
Resumo:
The activated sludge process - the main biological technology usually applied towastewater treatment plants (WWTP) - directly depends on live beings (microorganisms), and therefore on unforeseen changes produced by them. It could be possible to get a good plant operation if the supervisory control system is able to react to the changes and deviations in the system and can take thenecessary actions to restore the system’s performance. These decisions are oftenbased both on physical, chemical, microbiological principles (suitable to bemodelled by conventional control algorithms) and on some knowledge (suitable to be modelled by knowledge-based systems). But one of the key problems in knowledge-based control systems design is the development of an architecture able to manage efficiently the different elements of the process (integrated architecture), to learn from previous cases (spec@c experimental knowledge) and to acquire the domain knowledge (general expert knowledge). These problems increase when the process belongs to an ill-structured domain and is composed of several complex operational units. Therefore, an integrated and distributed AIarchitecture seems to be a good choice. This paper proposes an integrated and distributed supervisory multi-level architecture for the supervision of WWTP, that overcomes some of the main troubles of classical control techniques and those of knowledge-based systems applied to real world systems
Resumo:
Pienkiinteistöjen öljyvahingot ovat viime vuosina lisääntyneet. Tämän työn tarkoituksena on luoda öljyvahingon torjuntaan ja jälkihoitoon osallistuvalle urakoitsijalle toimintamalli asuinkiinteistön öljyvahingon hoitamiseksi. Mallin halutaan erityisesti kuvaavan öljyvahingon hoitoon osallistuvien viranomaisten ja muiden tahojen vastuita ja velvollisuuksia. Työn tavoitteena on myös tunnistaa pienkiinteistöissä tapahtuvat öljyvahinkotyypit sekä niille altistavat riskitekijät. Öljyn päästäminen ympäristöön sekä öljyn käsittely ja varastointi niin, että siitä aiheutuu öljyvahingon vaara, kielletään laissa. Vahinkojen torjumiseksi on annettu määräyksiä muun muassa öljylämmityslaitteistojen turvallisuutta koskien. Asuinkiinteistöjen öljyvahingot liittyvät yleensä öljysäiliön täyttötilanteisiin. Vahinkojen syynä on usein säiliön ja sen varusteiden puutteellisuus tai huono kunto. Asuinrakennusten lämmitykseen käytetään kevyttä polttoöljyä. Maahan joutuessaan polttoöljy imeytyy sora- ja hiekkamaahan nopeasti, jolloin vaarana on öljyn kulkeutuminen pohjaveteen ja vesistöihin. Asuinkiinteistön öljyvahingossa öljyä joutuu usein myös rakenteisiin. Öljyvahingosta tulee ilmoittaa aina hätäkeskukseen. Vastuu öljyvahinkojen torjunnasta kuuluu alueelliselle pelastustoimelle. Torjuntatoimiin osallistuu usein myös urakoitsija. Jos vahinkokohdetta ei torjuntatoimin saada kunnostettua, alueellinen ympäristökeskus voi määrätä puhdistamisesta vastuussa olevan selvittämään pilaantuneen alueen laajuuden ja puhdistamistarpeen sekä toteuttamaan mahdollisen kunnostuksen. Pilaantuneen maaperän kunnostus voidaan toteuttaa massan vaihtona tai paikan päällä maata kaivamatta. Likaantuneiden rakenteiden saneerausta tarvitaan sisäilman hajuhaittojen poistamiseksi. Öljyvahingon kustannukset voivat nousta hyvinkin suuriksi. Ensisijainen vastuu niistä kuuluu vahingonaiheuttajalle.
Resumo:
Tässä työssä tarkastellaan pientalojen kiristyvien energiatehokkuusvaatimusten vaikutusta lämmitysratkaisuista aiheutuviin hiilidioksipäästöihin. Kiristyvät vaatimukset tähtäävät tarvittavan lämmitysenergian ja hiilidioksidipäästöjen pienenemiseen mutta ne vaikuttavat myös lämmitystapojen keskinäiseen kilpailukykyyn. Koska hiilidioksidipäästöt lämmitystapojen kesken ovat erilaisia, ei päästöt pienene samassa suhteessa lämmitysenergian pienentymisen kanssa mikäli järjestelmä vaihdetaan suurempipäästöiseen lämmitystapaan. Kannattavuuden perusteella arvioidaan mitkä lämmitystavat yleistyvät tulevaisuudessa ja kuinka muutos vaikuttaa hiilidioksipäästöihin. Tarkasteltavina lämmitysmuotoina on maalämpöpumppulämmitys, öljylämmitys ja kaukolämpölämmitys. Tarkasteltavia lämmitysmuotoja verrataan investointikustannuksiltaan edullisimpiin sähkölämmitysmuotoihin. Työssä todettiin energiatehokkuuden vaatimusten kiristämisen kasvattavan sähkölämmitystapojen osuutta. Koska lämmityssähkön hiilidioksidipäästöt ovat korkeat, joissain tapauksissa hiilidioksipäästöt jopa kasvavat energiatehokkuuden parantuessa.
Resumo:
Tutkimuksen tarkoituksena on pyrkiä selvittämään kansainvälisen tilipäätösstandardin, IFRS 2 Osakeperusteiset maksut, vaikutusta yritysten palkitsemisjärjestelmäkäytäntöihin standardin voimaanastumisesta aina nykyhetkeen saakka. Tarkastelun ensisijaisena pyrkimyksenä on selvittää, miten osakeperusteiset palkitsemisjärjestelmät, kirjataan yritysten tilinpäätöksiin. Tutkimuksessa on myös tarkoitus yritysten tilinpäätösinformaatioiden kautta pyrkiä tuomaan esille osakeperusteisten maksujen tilinpäätöksellinen vaikutus, eli selvittää, millaisia vaikutuksia osakeperusteisten maksujen kirjaamisella on yritysten tunnusluvuille.
Resumo:
Fraud is an increasing phenomenon as shown in many surveys carried out by leading international consulting companies in the last years. Despite the evolution of electronic payments and hacking techniques there is still a strong human component in fraud schemes. Conflict of interest in particular is the main contributing factor to the success of internal fraud. In such cases anomaly detection tools are not always the best instruments, since the fraud schemes are based on faking documents in a context dominated by lack of controls, and the perpetrators are those ones who should control possible irregularities. In the banking sector audit team experts can count only on their experience, whistle blowing and the reports sent by their inspectors. The Fraud Interactive Decision Expert System (FIDES), which is the core of this research, is a multi-agent system built to support auditors in evaluating suspicious behaviours and to speed up the evaluation process in order to detect or prevent fraud schemes. The system combines Think-map, Delphi method and Attack trees and it has been built around audit team experts and their needs. The output of FIDES is an attack tree, a tree-based diagram to ”systematically categorize the different ways in which a system can be attacked”. Once the attack tree is built, auditors can choose the path they perceive as more suitable and decide whether or not to start the investigation. The system is meant for use in the future to retrieve old cases in order to match them with new ones and find similarities. The retrieving features of the system will be useful to simplify the risk management phase, since similar countermeasures adopted for past cases might be useful for present ones. Even though FIDES has been built with the banking sector in mind, it can be applied in all those organisations, like insurance companies or public organizations, where anti-fraud activity is based on a central anti-fraud unit and a reporting system.
Resumo:
Rapid ongoing evolution of multiprocessors will lead to systems with hundreds of processing cores integrated in a single chip. An emerging challenge is the implementation of reliable and efficient interconnection between these cores as well as other components in the systems. Network-on-Chip is an interconnection approach which is intended to solve the performance bottleneck caused by traditional, poorly scalable communication structures such as buses. However, a large on-chip network involves issues related to congestion problems and system control, for instance. Additionally, faults can cause problems in multiprocessor systems. These faults can be transient faults, permanent manufacturing faults, or they can appear due to aging. To solve the emerging traffic management, controllability issues and to maintain system operation regardless of faults a monitoring system is needed. The monitoring system should be dynamically applicable to various purposes and it should fully cover the system under observation. In a large multiprocessor the distances between components can be relatively long. Therefore, the system should be designed so that the amount of energy-inefficient long-distance communication is minimized. This thesis presents a dynamically clustered distributed monitoring structure. The monitoring is distributed so that no centralized control is required for basic tasks such as traffic management and task mapping. To enable extensive analysis of different Network-on-Chip architectures, an in-house SystemC based simulation environment was implemented. It allows transaction level analysis without time consuming circuit level implementations during early design phases of novel architectures and features. The presented analysis shows that the dynamically clustered monitoring structure can be efficiently utilized for traffic management in faulty and congested Network-on-Chip-based multiprocessor systems. The monitoring structure can be also successfully applied for task mapping purposes. Furthermore, the analysis shows that the presented in-house simulation environment is flexible and practical tool for extensive Network-on-Chip architecture analysis.