932 resultados para thrombocyte concentrate
Resumo:
Tämän tutkielman tarkoituksena on ollut kartoittaa pankkien yrityksille tarjoamien elektronisten pankkipalveluiden nykytilaa suhteessa aiheesta kirjoitettuun teoriaan. Yrityspuolella pankkipalvelun käyttäjä ei välttämättä ole samalla omistaja, kuten yksityishenkilöille tarkoitetuissa palveluissa. Tästä johtuen tämä kenttä tarjoaa aivan uutta tutkittavaa vanhempien, lähinnä yksityishenkilöiden suhteen tehtyjen tutkimusten rinnalle. Yrityksille tarkoitetut elektroniset pankkipalvelut ovat pohjautuneet pitkälti vuosikymmeniä vanhoihin eräsiirtojärjestelmiin, joita aletaan vasta nyt muuttaa internetpohjaisiksi. Yritysten tarpeet sekä vaatimukset pankkien verkkopalveluiden suhteen tulevat olemaan moninaisia ja poikkeamaan paljonkin aiemmin rakennetuista yksityisten verkkopalveluista. Avainsanoja tällä saralla tulevat olemaan personointi, kustomointi, tehokkuus, turvallisuus, reaaliaikainen tieto sekä kommunikointi.Tutkielmaan on tuotu lisäsyvyyttä arvioimalla elektronisen kaupankäynnin tulevaisuutta, jossa myös pankkien rooli tulee olemaan todennäköisesti merkittävä. Tätä tukee yritysten siirtyminen mm. elektroniseen laskutukseen, sekä –kaupankäyntiin. Pankkien tulisikin löytää jokin luonteva (välittäjän) rooli kehittyvillä business to business sekä business to consumer markkinoilla. Tämä alue voi pitää ratkaisun avaimet käsissä siihen, kuinka katetaan esimerkiksi netotuspalveluiden aiheuttamat tulonmenetykset. Nämä ovat strategisia kysymyksiä, jolloin tulee päättää minne asti tarjottavia palveluita voidaan venyttää pankkipalveluiden nimissä ja mitkä taas selkeästi toteuttaa vaikkapa partneripalveluina. Tulevaisuudessa verkossa surffaaminen tulee kuitenkin keskittymään suuriin portaaleihin, ja näin ollen onkin syytä varmistaa jo ajoissa että on itse luomassa riittävän houkuttavaa kokonaisuutta omien ja partnerien tarjoamien palveluiden osalta, sekä varmistaa myös näkyvyys muissa kriittisissä keskittymissä verkossa.
Resumo:
Tutkimuksen tavoitteena oli löytää sopivia suorituskyvyn mittareita kunnossapitopalveluyrityksen hankintatoimeen. Mittarivalinnat rajattiin käsittelemään toimittajien hallintaa, hintakehityksen ja maksujen hallintaa sekä ostotyön onnistumista. Tutkimuksessa selvitettiin myös, mihin hankintatoimen tekijöihin esimerkkiyrityksen sisäiset asiakkaat eivät olleet tyytyväisiä. Sovellettavaksi suorituskykymittaristoksi valittiin Balanced Scorecard. Materiaalihallinnon sisäiset asiakkaat kokivat asiakastyytyväisyyden ongelmakohdiksi hankintatoimen luotettavuuden, ostajan palvelualttiuden, saatavilla olon, yhteisen toiminnansuunnittelun ja ongelmista tiedottamisen puutteen, melko pitkät toimitusajat sekä hitaat varaston täytöt. Hankintatoimen ongelmakohdiksi ostajien haastatteluissa nousivat koulutuksen ja yhteisen toiminnansuunnittelun puute sekä pienten ostotilausten ja pienten toimittajien suuri määrä. Nämä tekijät huomioitiin tietyiltä osin myös mittarivalinnoissa. Materiaalihallintoon rakennettu Balanced Scorecard sopii osaston tämän hetkiseen tilanteeseen. Mittariston viidessä näkökulmassa mittareita on lukumäärältään kattavasti; Balanced Scorecard toimii enemmänkin seurantajärjestelmänä. Ajan kuluessa todennäköisesti keskitytään vain tärkeimpiin mittareihin jolloin järjestelmän ohjaavampi vaikutus korostuu. Kun mittareissa on saavutettu jatkuvaa parantumista, kannattaa harkita uusien mittareiden ja näkökulmien valintaa. Materiaalihallintoon luotiin myös yleinen Excel- tiedosto, johon merkitään kunkin mittarin sen hetkiset arvot ja josta niiden kehitystä seurataan säännöllisesti. Tutkimustyyppi työssä on konstruktiivinen. Tutkimuksen aineisto kerättiin sisäisten asiakkaiden ja ostajien teemahaastattelulla käyttäen kvalitatiivisia tutkimusmenetelmiä. Tutkimuksessa haastateltiin esimerkkiyrityksen materiaalihallinnon kaksi ostajaa sekä 21 sisäistä asiakasta, jotka ovat työnsä puolesta yhteydessä materiaalihallintoon.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Tässä työssä kuvataan erilaisia malleja palveluiden hinnoitteluun. Työn tavoitteena on saada kokonaiskuva erilaisista palveluiden hinnoittelumalleista. Lähtökohtana ovat palveluiden, hinnan, hinnoittelun ja kustannusten määritelmät. Malleista kuvataan hinnoittelun peruste, yleisiä käyttökohteita sekä vahvuuksia ja heikkouksia. Eri mallit on jaettu kahteen osaan. Yrityskohtaiset mallit kuvaavat laajasti hinnoitteluprosessia. Yksityiskohtaisemmat palvelukohtaiset mallit on jaettu resurssi-, tuotos-, käyttöoikeus- ja käyttöperusteisiin, sekä hyöty- ja arvoperusteisiin menetelmiin. Täydellistä kaikille palveluille sopivaa hinnoittelumenetelmää ei ole. Jokaisessa mallissa on heikkouksia ja vahvuuksia. Eri menetelmät soveltuvat erilaisiin tilanteisiin ja niitä käytetään yrityksissä usein rinnakkain niin sanottuina hybridimalleina. Lisäksi palveluiden hinnoitteluun liittyy yllättävän paljon intuitiota ja kokemuksellista tietoa.
Resumo:
Organisaatio tarvitsee työkaluja toimittajien suorituskyvyn mittaukseen ja kehittämiseen. Ilman systemaattista mittaamista ja arviointia ostajat eivät tiedä kuinka hyvin toimittajat suoriutuvat velvoitteistaan. Tutkielman tavoit-teena oli analysoida vähittäiskaupan tavarantoimittajien arviointiprosessia keskittyen päivittäistavarakaupan toimialaan ja tavarantoimittajiin sekä luoda toimittajien arviointiin pilottiraportti. Tutkielma on tehty päivittäistavarakaupan kohdeyrityksen toimeksiannosta. Tutkielman teoreettinen aineisto pohjautuu aikaisempaan kirjallisuuteen ja tutkimukseen. Tutkielman empiiriseen osaan aineistoa kerättiin kohdeyrityksen henkilöstön haastatteluilla sekä osallistuvan havainnoinnin avulla. Lisäksi tutkija perehtyi kohdeyrityksessä käytössä olevaan tietovarastointi-sovellukseen. Kirjallisen aineiston avulla rakennettu tutkimuksen teoreettinen osa perustuu aikaisempaan tutkimukseen. Empiirinen osa muodostuu neljästä teemahaastattelusta, jotka suoritettiin kohdeyrityksessä. Haastattelujen tarkoituksena oli rakentaa tutkijalle kuva kohdeyrityksen tavarantoimittaja-arvioinnin nykytilasta. Tutkielmassa havainnollistettiin yksinkertainen raportointimalli yhden tavararyhmän arviointiin ja arviointitiedon analysointiin. Raportointimallilla havainnollistetaan tavarantoimittaja-arviointidatan käyttöä toimittaja-arvioinnissa. Jatkossa on olennaista keskittyä systemaattisen raportoinnin edelleen kehittämiseen ja arviointitiedon hyväksikäyttöön neuvotteluissa toimittajan kanssa. Lisäksi toimittajien luokittelu tavararyhmien sisällä on tärkeää jotta arvioinnissa voidaan keskittyä kaikista tärkeimpiin toimittajiin.
Resumo:
Internationalization and the following rapid growth have created the need to concentrate the IT systems of many small-to-medium-sized production companies. Enterprise Resource Planning systems are a common solution for such companies. Deployment of these ERP systems consists of many steps, one of which is the implementation of the same shared system at all international subsidiaries. This is also one of the most important steps in the internationalization strategy of the company from the IT point of view. The mechanical process of creating the required connections for the off-shore sites is the easiest and most well-documented step along the way, but the actual value of the system, once operational, is perceived in its operational reliability. The operational reliability of an ERP system is a combination of many factors. These factors vary from hardware- and connectivity-related issues to administrative tasks and communication between decentralized administrative units and sites. To accurately analyze the operational reliability of such system, one must take into consideration the full functionality of the system. This includes not only the mechanical and systematic processes but also the users and their administration. All operational reliability in an international environment relies heavily on hardware and telecommunication adequacy so it is imperative to have resources dimensioned with regard to planned usage. Still with poorly maintained communication/administration schemes no amount of bandwidth or memory will be enough to maintain a productive level of reliability. This thesis work analyzes the implementation of a shared ERP system to an international subsidiary of a Finnish production company. The system is Microsoft Dynamics Ax, currently being introduced to a Slovakian facility, a subsidiary of Peikko Finland Oy. The primary task is to create a feasible base of analysis against which the operational reliability of the system can be evaluated precisely. With a solid analysis the aim is to give recommendations on how future implementations are to be managed.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Tutkimuksessa suunnitellaan projektipalkkiojärjestelmä tuotekehityspalveluita tarjoavalle asiantuntijapalveluyritykselle. Projektipalkkioiden avulla pyritään kannustamaan asiantuntijoita huomioimaan projektien menestystekijät. Asiantuntijapalveluiden projektiliiketoiminnassa menestystekijöillä tavoitellaan asiakastyytyväisyyttä ja toiminnan kannattavuutta. Kirjallisuustutkimus jakaantuu kahteen pääosaan. Ensin tutkitaan suoritusperusteisen palkitsemisjärjestelmän teoriaa ja sen jälkeen asiantuntijapalveluiden erityispiirteitä. Käytännön osuudessa tutkitaan kohdeorganisaation motiiveja ja resursseja palkitsemisjärjestelmän käyttöönotossa sekä perehdytetään projektitoiminnan prosesseihin, joihin palkitsemisjärjestelmä sulautetaan. Tutkimuksen lopputuloksena dokumentoidaan uuden projektipalkkiojärjestelmän rakenne ja prosessit. Palkitsemisen perusteena käytettävät projektitoiminnan menestystekijät kohdeyrityksessä muodostetaan teoreettisista malleista ja yritystason strategiasta. Lopuksi syntynyttä järjestelmää testataan vertaamalla sitä teoriatutkimuksen asettamiin vaatimuksiin.
Resumo:
In recent years, an explosion of interest in neuroscience has led to the development of "Neuro-law," a new multidisciplinary field of knowledge whose aim is to examine the impact and role of neuroscientific findings in legal proceedings. Neuroscientific evidence is increasingly being used in US and European courts in criminal trials, as part of psychiatric testimony, nourishing the debate about the legal implications of brain research in psychiatric-legal settings. During these proceedings, the role of forensic psychiatrists is crucial. In most criminal justice systems, their mission consists in accomplishing two basic tasks: assessing the degree of responsibility of the offender and evaluating their future dangerousness. In the first part of our research, we aim to examine the impact of Neuroscientific evidence in the assessment of criminal responsibility, a key concept of law. An initial jurisprudential research leads to conclude that there are significant difficulties and limitations in using neuroscience for the assessment of criminal responsibility. In the current socio-legal context, responsibility assessments are progressively being weakened, whereas dangerousness assessments gain increasing importance in the field of forensic psychiatry. In the second part of our research we concentrate on the impact of using neuroscience for the assessment of dangerousness. We argue that in the current policy era of zero tolerance, judges, confronted with the pressure to ensure public security, may tend to interpret neuroscientific knowledge and data as an objective and reliable way of evaluating one's dangerousness and risk of reoffending, rather than their responsibility. This tendency could be encouraged by a utilitarian approach to punishment, advanced by some recent neuroscientific research which puts into question the existence of free will and responsibility and argues for a rejection of the retributive theory of punishment. Although this shift away from punishment aimed at retribution in favor of a consequentialist approach to criminal law is advanced by some authors as a more progressive and humane approach, we believe that it could lead to the instrumentalisation of neuroscience in the interest of public safety, which can run against the proper exercise of justice and civil liberties of the offenders. By advancing a criminal law regime animated by the consequentialist aim of avoiding social harms through rehabilitation, neuroscience promotes a return to a therapeutical approach to crime which can have serious impact on the kind and the length of sentences imposed on the offenders; if neuroscientific data are interpreted as evidence of dangerousness, rather than responsibility, it is highly likely that judges impose heavier sentences, or/and security measures (in civil law systems), which can be indeterminate in length. Errors and epistemic traps of past criminological movements trying to explain the manifestation of a violent and deviant behavior on a biological and deterministic basis stress the need for caution concerning the use of modern neuroscientific methods in criminal proceedings.
Resumo:
Background: Microparticles are small phospholipid vesicles of <1 lm shed in blood flow by various cell types including red blood cells. Erythrocyte-derived microparticles (EMPs) accumulate in erythrocyte concentrates (ECs) during their storage time. EMPs are considered as part of storage lesion and as their exact role is not elucidated, they could be involved in these clinical outcomes. Aims: The aim of this study is to evaluate the impact and implication of EMPs isolate from ECs on coagulation. Methods: EMPs were first isolated from erythrocyte concentrates by centrifugation and counted by flow cytometry. Using a calibrated automated thrombogram, EMPs were then added to different type of plasmas in order to evaluate the potential of thrombin generation. Results: We demonstrate that EMPs isolated from ECs are capable to accelerate and amplify thrombin generation in presence of a low exogenous tissue factor concentration, thanks to their negatively charged membrane necessary for the assembly of coagulation complexes. Interestingly, in the absence of exogenous tissue factor, EMPs are also able to trigger thrombin generation. In addition, thrombin generation induced by EMPs is not affected by the presence of anti-TF antibodies. Finally, thrombin generation induced by EMPs is not affected by using plasma samples deficient in factor VII, XI or XII. However, thrombin generation is reduced in plasma deficient in factor VIII or IX and is completely abolished in plasma deficient in factor X, V or II. No thrombin generation was observed in plasma samples without EMPs. Summary/conclusion: Several studies have shown a link between storage time of blood products and post transfusion complications. We provide evidence that EMPs accumulated during storage of erythrocyte concentrates were not only able to accelerate and support thrombin generation in plasma in presence of a low exogenous tissue-factor concentration, but also to trigger thrombin generation in absence of exogenous TF. The impact of those transfused EMs is unknown on recipients, nevertheless it could be hypothesized that under certain circumstances, transfused EMPs could be involved in thrombin generation and could be linked to adverse clinical outcome. Further work is needed to determine whether procoagulant EMPs transfused with erythrocyte concentrate may account for some of the complications occurring after red blood cell transfusion, and more particularly after transfusion of ''older''stored blood, rich in EMPs.
Resumo:
Perioperative management of patients treated with the non-vitamin K antagonist oral anticoagulants is an ongoing challenge. Due to the lack of good clinical studies involving adequate monitoring and reversal therapies, management requires knowledge and understanding of pharmacokinetics, renal function, drug interactions, and evaluation of the surgical bleeding risk. Consideration of the benefit of reversal of anticoagulation is important and, for some low risk bleeding procedures, it may be in the patient's interest to continue anticoagulation. In case of major intra-operative bleeding in patients likely to have therapeutic or supra-therapeutic levels of anticoagulation, specific reversal agents/antidotes would be of value but are currently lacking. As a consequence, a multimodal approach should be taken which includes the administration of 25 to 50 U/kg 4-factor prothrombin complex concentrates or 30 to 50 U/kg activated prothrombin complex concentrate (FEIBA®) in some life-threatening situations. Finally, further studies are needed to clarify the ideal therapeutic intervention.
Resumo:
BACKGROUND: Patient-centered care (PCC) has been recognized as a marker of quality in health service delivery. In policy documents, PCC is often used interchangeably with other models of care. There is a wide literature about PCC, but there is a lack of evidence about which model is the most appropriate for maternity services specifically. AIM: We sought to identify and critically appraise the literature to identify which definition of PCC is most relevant for maternity services. METHODS: The four-step approach used to identify definitions of PCC was to 1) search electronic databases using key terms (1995-2011), 2) cross-reference key papers, 3) search of specific journals, and 4) search the grey literature. Four papers and two books met our inclusion criteria. ANALYSIS: A four-criteria critical appraisal tool developed for the review was used to appraise the papers and books. MAIN RESULTS: From the six identified definitions, the Shaller's definition met the majority of the four criteria outlined and seems to be the most relevant to maternity services because it includes physiologic conditions as well as pathology, psychological aspects, a nonmedical approach to care, the greater involvement of family and friends, and strategies to implement PCC. CONCLUSION: This review highlights Shaller's definitions of PCC as the one that would be the most inclusive of all women using maternity services. Future research should concentrate on evaluating programs that support PCC in maternity services, and testing/validating this model of care.
Resumo:
The NaCl- KCl system as fused-salt solvent for leaching has shown to have some advantages over traditional solvents. In this work the solubility of copper, nickel and cobalt oxide in this system, as impurities in manganese concentrate, was studied. The euthetic mixture of NaCl - KCl at 700ºC was used at several fusion times and the dissolved metals were determined by Atomic Absorption Spectrometry. The results have shown that in these conditions only copper was solubilized.
Resumo:
Työ käsittelee tietohallintoa tietointensiivisenä yrityspalveluna Lappeenrannan teknillisessä yliopistossa. Yliopiston tulee keskittyä omaan ydinosaamiseensa sekä erottaa sisäiset yrityspalvelut omiksi kokonaisuuksikseen. Tähän on käytetty tietohallinnon osalta tilaaja tuottajamallia. Mallin puitteissa tietohallintoyksikkö on kattavasti tunnistanut ja määritellyt oman toimintansa sekä asiakkaidensa perustarpeet. Tietohallinnon palvelut ovat tietointensiivisiä yrityspalveluita, joiden tarkoituksena on täydentää asiakkaiden osaamista ja kykyä tuottaa innovaatioita sekä välittää muualla tuotettua tietoa ja teknisiä ratkaisuja tähän tarpeeseen. Tietointensiivisen palveluntuottajan asiantuntijuus on kokemusperäistä ja hiljaista tietoa, jota on lähtökohtaisesti vaikea muuttaa organisatoriseksi tiedoksi eli lisäarvoksi organisaation toiminnalle. Tuotteistamista on hyödynnetty tietohallinnon prosessien muuttamiseksi eksplisiittisiksi. Tuotteistamalla standardoidaan prosesseihin liittyvät parhaat käytänteet, joka tarkoittaa kokemusperäisesti hyväksi havaittujen toimintatapojen rutinoimista. Tuotetut palvelut on tuotteistettu palvelupaketeiksi, joista on laadittu yksityiskohtainen palvelukuvaus sekä laskettu tuotekohtainen hinta. Palvelumallin soveltaminen takaa yksikkökustannusten, skaalaetujen, riskin jakaantumisen ja teknologisen kehityksen optimoinnin yliopistossa.
Resumo:
Työn kirjallisuusosassa selvitettiin eri tekijöiden (lämpötila, paine, mineralogia, partikkelikoko, sekoitus, kiintoainepitoisuus, liuoksen happo-, rauta- ja happipitoisuus) vaikutusta sinkkirikasteen suoraliuotusprosessin tärkeimpiin ilmiöihin (diffuusio, aineensiirto, reaktiokinetiikka). Kirjallisuusosassa kartoitettiin myös tämän hetkistä tietämystä niistä tekijöistä, jotka ovat oleellisia, kun sinkkirikasteen suoraliuotusprosessia mallinnetaan. Näitä tekijöitä ovat: sinkkirikasteiden liuotuksen kemia, sinkkirikasteiden liuotuksen kinetiikka ja mekanismit, kaasuneste aineensiirto ja kiinteäneste aineensiirto. Lisäksi selvitettiin millä tavoin aikaisemmissa tutkimuksissa sinkkirikasteiden suoraliuotusta on mallinnettu. Mallinnusosassa käsiteltiin atmosfääristä sinkkirikasteen suoraliuotusta, jossa hapettimena toimi ferri(III)rauta. Mallintamisessa käytettiin kirjallisuudessa esitettyjä mittaustuloksia ja mallintaminen tehtiin Modest tietokoneohjelmistolla. Työssä tehty atmosfäärisen suoraliuotuksen mallintaminen labo-ratoriomittakaavassa (laimeat liuokset ja pienet kiintoainepitoisuudet) antoi lupaavia tuloksia. Ongelmia mallin ennustuksen kanssa esiintyi pienissä happopitoisuuksissa, alhaisissa lämpötiloissa sekä pienillä ja suurilla partikkeleilla. Työn kirjallisuusosassa tunnistettiin ne ongelmakohdat, jotka vaativat lisätutkimuksia, jotta sinkkirikasteen atmosfääriselle suoraliuotukselle pystytään kehittämään simulointimalli. Näitä ovat: 1. Hapen liukoisuus ja aineensiirto teollisuuden käyttämissä sinkkirikastelietteissä, 2. Sopivien mittaustulosten puuttuminen, jotta atmosfääristä suoraliuotusta, jossa O2 ja Fe3+ toimivat hapettimena voitaisiin mallintaa, 3. Kiinteäneste aineensiirron merkitys sinkkirikasteen suoraliuotuksessa. Mallinnusosassa osoitettiin, että mekanistisella mallintamisella voidaan simuloida sinkkirikasteen atmosfääristä suoraliuotusta ainakin laboratoriomittakaavassa. Työn perusteella voidaan todeta, että sinkkirikasteen atmosfääriselle suoraliuotukselle voidaan työssä ehdotettujen jatkotutkimusten avulla kehittää numeerinen mekanistinen malli, jolla atmosfääristä sinkkirikasteiden suoraliuotusprosessia voidaan simuloida eri olosuhteissa.