901 resultados para classification method


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The clinical relevance of accurately diagnosing pleomorphic sarcomas has been shown, especially in cases of undifferentiated pleomorphic sarcomas with myogenic differentiation, which appear significantly more aggressive. To establish a new smooth muscle differentiation classification and to test its prognostic value, 412 sarcomas with complex genetics were examined by immunohistochemistry using four smooth muscle markers (calponin, h-caldesmon, transgelin and smooth muscle actin). Two tumor categories were first defined: tumors with positivity for all four markers and tumors with no or incomplete phenotypes. Multivariate analysis demonstrated that this classification method exhibited the strongest prognostic value compared with other prognostic factors, including histological classification. Secondly, incomplete or absent smooth muscle phenotype tumor group was then divided into subgroups by summing for each tumor the labeling intensities of all four markers for each tumors. A subgroup of tumors with an incomplete but strong smooth muscle differentiation phenotype presenting an intermediate metastatic risk was thus identified. Collectively, our results show that the smooth muscle differentiation classification method may be a useful diagnostic tool as well as a relevant prognostic tool for undifferentiated pleomorphic sarcomas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The objective of this work was to evaluate the application of the spectral-temporal response surface (STRS) classification method on Moderate Resolution Imaging Spectroradiometer (MODIS, 250 m) sensor images in order to estimate soybean areas in Mato Grosso state, Brazil. The classification was carried out using the maximum likelihood algorithm (MLA) adapted to the STRS method. Thirty segments of 30x30 km were chosen along the main agricultural regions of Mato Grosso state, using data from the summer season of 2005/2006 (from October to March), and were mapped based on fieldwork data, TM/Landsat-5 and CCD/CBERS-2 images. Five thematic classes were considered: Soybean, Forest, Cerrado, Pasture and Bare Soil. The classification by the STRS method was done over an area intersected with a subset of 30x30-km segments. In regions with soybean predominance, STRS classification overestimated in 21.31% of the reference values. In regions where soybean fields were less prevalent, the classifier overestimated 132.37% in the acreage of the reference. The overall classification accuracy was 80%. MODIS sensor images and the STRS algorithm showed to be promising for the classification of soybean areas in regions with the predominance of large farms. However, the results for fragmented areas and smaller farms were less efficient, overestimating soybean areas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Raman spectroscopy combined with chemometrics has recently become a widespread technique for the analysis of pharmaceutical solid forms. The application presented in this paper is the investigation of counterfeit medicines. This increasingly serious issue involves networks that are an integral part of industrialized organized crime. Efficient analytical tools are consequently required to fight against it. Quick and reliable authentication means are needed to allow the deployment of measures from the company and the authorities. For this purpose a method in two steps has been implemented here. The first step enables the identification of pharmaceutical tablets and capsules and the detection of their counterfeits. A nonlinear classification method, the Support Vector Machines (SVM), is computed together with a correlation with the database and the detection of Active Pharmaceutical Ingredient (API) peaks in the suspect product. If a counterfeit is detected, the second step allows its chemical profiling among former counterfeits in a forensic intelligence perspective. For this second step a classification based on Principal Component Analysis (PCA) and correlation distance measurements is applied to the Raman spectra of the counterfeits.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The research of condition monitoring of electric motors has been wide for several decades. The research and development at universities and in industry has provided means for the predictive condition monitoring. Many different devices and systems are developed and are widely used in industry, transportation and in civil engineering. In addition, many methods are developed and reported in scientific arenas in order to improve existing methods for the automatic analysis of faults. The methods, however, are not widely used as a part of condition monitoring systems. The main reasons are, firstly, that many methods are presented in scientific papers but their performance in different conditions is not evaluated, secondly, the methods include parameters that are so case specific that the implementation of a systemusing such methods would be far from straightforward. In this thesis, some of these methods are evaluated theoretically and tested with simulations and with a drive in a laboratory. A new automatic analysis method for the bearing fault detection is introduced. In the first part of this work the generation of the bearing fault originating signal is explained and its influence into the stator current is concerned with qualitative and quantitative estimation. The verification of the feasibility of the stator current measurement as a bearing fault indicatoris experimentally tested with the running 15 kW induction motor. The second part of this work concentrates on the bearing fault analysis using the vibration measurement signal. The performance of the micromachined silicon accelerometer chip in conjunction with the envelope spectrum analysis of the cyclic bearing faultis experimentally tested. Furthermore, different methods for the creation of feature extractors for the bearing fault classification are researched and an automatic fault classifier using multivariate statistical discrimination and fuzzy logic is introduced. It is often important that the on-line condition monitoring system is integrated with the industrial communications infrastructure. Two types of a sensor solutions are tested in the thesis: the first one is a sensor withcalculation capacity for example for the production of the envelope spectra; the other one can collect the measurement data in memory and another device can read the data via field bus. The data communications requirements highly depend onthe type of the sensor solution selected. If the data is already analysed in the sensor the data communications are needed only for the results but in the other case, all measurement data need to be transferred. The complexity of the classification method can be great if the data is analysed at the management level computer, but if the analysis is made in sensor itself, the analyses must be simple due to the restricted calculation and memory capacity.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Diplomityössä tutustaan Olkiluoto 3-laitoksen suunnittelu- ja rakennusvaiheen aikaisiin laatupoikkeamiin ja niiden käsittelyyn. Työn tavoitteena on paikantaa poikkeamakäsittelyn pahimmat ongelmakohdat, ja kehittää menetelmiä ongelmien ratkaisemiseksi. Diplomityön tutkimusmenetelmänä käytettiin toimintatutkimusta. Tutkimus toteutettiin kevään 2007 aikana havainnoimalla Olkiluoto 3-projektin laadunhallinnan toimintaa ja analysoimalla projektissa syntyneitä poikkeamia. Työn toteuttamisessa tutustuttiin kansallisin ja kansainvälisiin laadunhallinnan standardeihin sekä erityisesti ydinvoima-alaa koskeviin laadunhallinnan ohjeistuksiin. Diplomityön tuloksena kehitettiin menetelmä OL 3-projektin toiminnallisten poikkeamien luokittelemiseksi. Jatkossa luokittelumenetelmää voidaan hyödyntää aiempaa tarkemman poikkeamatiedon analysoinnissa, sisäisessä päätöksenteossa sekä OL 3-projektin tiedotuksessa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tässä työssä on kuvattu ydinvoimalaitosten käyttökokemusten tutkimusta keskittyen erityisesti inhimillisten toimintojen tarkasteluun. Työssä on kerrottu kansainvälisistä vaatimuksista ja järjestöistä sekä yleisesti käyttökokemusten tutkimuksessa käytössä olevista menetelmistä keskittyen perussyyanalyysimenetelmiin. Suomen osalta työssä on käsitelty lainsäädännön asettamia velvoitteita ja muita vaatimuksia, jotka ydinvoima-alalla koostuvat lähinnä Säteilyturvakeskuksen YVL-ohjeista. Viranomaisena toimivan Säteilyturvakeskuksen, alan tutkimusta suorittavan Valtion teknillisen tutkimuskeskuksen ja Teollisuuden Voima Oy:n käyttökokemusten tutkimiseen liittyvät organisaatiot ja menettelytavat on esitelty. Fortum Power and Heat Oy:n omistaman ja käyttämän Loviisan ydinvoimalaitoksen käyttökokemusten hyödyntäminen on käsitelty tarkemmin. Loviisan voimalaitoksen organisaatio ja käyttökokemusten sekä inhimillisten virheiden käsittelymenetelmiä on esitelty ja analysoitu. Työn alkuvaiheessa Loviisan voimalaitoksella inhimillisistä virheistä kerätystä tiedosta koottu tietokanta järjesteltiin kuntoon. Järjestelyn jälkeen tietoa analysoitiin ja analysoinnin tulokset on esitetty tässä työssä. Sekä järjestelyn että analysoinnin aikana havaitut kehityskohteet kirjattiin muistiin. Pienet toimenpiteet suoritettiin heti ja suuremmat kirjattiin tämän työn toimenpide-ehdotuksiin. Kehittämiskeinoja on ehdotettu virheiden luokittelumenetelmään ja käyttökokemusten käsittelymenetelmiin.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El presente proyecto tiene como objetivo desarrollar una tecnología que permita codificar grandes cantidades de texto de manera automática para posteriormente ser visualizada y analizada mediante una aplicación diseñada en Qlikview. El motor de la investigación e implementación de este proyecto se ha encontrado en la incipiente presencia de tecnologías informáticas en los procesos de codificación para ciencias políticas. De esta manera, el programa creado tiene como objetivo automatizar un proceso que se desarrolla comúnmente de manera manual y, por ende, las ventajas de introducir técnicas informáticas son notablemente valiosas. Estas automatizaciones permiten ahorrar tanto en tiempo de codificación, como en recursos económicos o humanos. Se ha elaborado una revisión teórica y metodológica que han servido como instrumentos de estudio y mejora, con el firme propósito de reducir al máximo el margen de error y ofrecer un instrumento de calidad con salida de mercado real. El método de clasificación utilizado ha sido Bayes, y se ha implementado utilizando Matlab. Los resultados de la clasificación han llegado a índices del 99.2%. En la visualización y análisis mediante Qlikview se pueden modificar los parámetros referentes a partido político, año, categoría o región, con lo que se permite analizar numerosos aspectos relacionados con la distribución de las palabras repartidas entre las diferentes categorías y en el tiempo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The search for low subjectivity area estimates has increased the use of remote sensing for agricultural monitoring and crop yield prediction, leading to more flexibility in data acquisition and lower costs comparing to traditional methods such as census and surveys. Low spatial resolution satellite images with higher frequency in image acquisition have shown to be adequate for cropland mapping and monitoring in large areas. The main goal of this study was to map the Summer crops in the State of Paraná, Brazil, using 10-day composition of NDVI SPOT Vegetation data for 2005/2006, 2006/2007 and 2007/2008 cropping seasons. For this, a supervised digital classification method with Parallelepiped algorithm in multitemporal RGB image composites was used, in order to generate masks of Summer cultures for each 10-day composition. Accuracy assessment was performed using Kappa index, overall accuracy and Willmott's concordance index, resulting in good levels of accuracy. This methodology allowed the accomplishment, with free and low resolution data, of the mapping of Summer cultures at State level.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Tässä diplomityössä päivitettiin ja testattiin sekajätteen koostumustutkimuksiin tarkoitettua jätejakeiden luokitteluohjetta. Työn tavoitteena oli selvittää, miten luokitteluohje vastaa jätelainsäädännön muutoksiin ja tavoitteisiin, miten ohje toimii käytännössä sekä miten luokitteluohjetta tulee päivittää, jotta se sekä vastaa jätelainsäädännön ja jätealan toimijoiden tietotarpeisiin sekajätteen koostumuksesta että toimii myös käytännössä. Työssä toteutettiin kyselytutkimus ja kaksi sekajätteen koostumustutkimusta. Jätealan toimijoille lähetetyn kyselyn avulla kartoitettiin luokitteluohjeen kehityskohtia. Kyselytutkimuksen vastaajat kokivat, että luokitteluohjeessa on eniten kehitettävää muovien luokittelussa. Muovien luokittelun lisäksi biojätteen sekä kierrätettävien ja vaarallisten jätteiden luokitteluun liittyvät mahdolliset kehityskohdat muodostettiin kyselyn vastausten perusteella. Sekajätteen koostumustutkimusten avulla testattiin luokitteluohjeen toimivuutta. Koostumustutkimukset toteutettiin ohjeen tarkimman tason mukaisesti. Jätteiden lajittelu osoittautui huomattavasti hitaammaksi kuin etukäteen oli arvioitu. Lisäksi monia materiaaleja sisältävien jätteiden lajittelu oli haasteellista molemmissa tutkimuksissa. Luokitteluohjetta päivitettiin kyselytutkimuksen ja koostumustutkimusten perusteella. Jätteet on luokiteltu päivitetyssä ohjeessa alkuperäisen ohjeen tavoin jätemateriaalien perusteella. Luokitteluohjetta päivitettiin jäteluokkien termistön sekä keittiöjätteen ja kierrätettävien jätteiden luokittelun osalta. Päivitetyn ohjeen avulla koostumustutkimuksen toteuttaja saa enemmän tietoa sekajätteestä biojätteen sekä kierrätettävien jätteiden osalta, mikä on tärkeää jätelainsäädännöllisten tavoitteiden kannalta.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The aim of this Master’s thesis is to find a method for classifying spare part criticality in the case company. Several approaches exist for criticality classification of spare parts. The practical problem in this thesis is the lack of a generic analysis method for classifying spare parts of proprietary equipment of the case company. In order to find a classification method, a literature review of various analysis methods is required. The requirements of the case company also have to be recognized. This is achieved by consulting professionals in the company. The literature review states that the analytic hierarchy process (AHP) combined with decision tree models is a common method for classifying spare parts in academic literature. Most of the literature discusses spare part criticality in stock holding perspective. This is relevant perspective also for a customer orientated original equipment manufacturer (OEM), as the case company. A decision tree model is developed for classifying spare parts. The decision tree classifies spare parts into five criticality classes according to five criteria. The criteria are: safety risk, availability risk, functional criticality, predictability of failure and probability of failure. The criticality classes describe the level of criticality from non-critical to highly critical. The method is verified for classifying spare parts of a full deposit stripping machine. The classification can be utilized as a generic model for recognizing critical spare parts of other similar equipment, according to which spare part recommendations can be created. Purchase price of an item and equipment criticality were found to have no effect on spare part criticality in this context. Decision tree is recognized as the most suitable method for classifying spare part criticality in the company.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Remote sensing techniques involving hyperspectral imagery have applications in a number of sciences that study some aspects of the surface of the planet. The analysis of hyperspectral images is complex because of the large amount of information involved and the noise within that data. Investigating images with regard to identify minerals, rocks, vegetation and other materials is an application of hyperspectral remote sensing in the earth sciences. This thesis evaluates the performance of two classification and clustering techniques on hyperspectral images for mineral identification. Support Vector Machines (SVM) and Self-Organizing Maps (SOM) are applied as classification and clustering techniques, respectively. Principal Component Analysis (PCA) is used to prepare the data to be analyzed. The purpose of using PCA is to reduce the amount of data that needs to be processed by identifying the most important components within the data. A well-studied dataset from Cuprite, Nevada and a dataset of more complex data from Baffin Island were used to assess the performance of these techniques. The main goal of this research study is to evaluate the advantage of training a classifier based on a small amount of data compared to an unsupervised method. Determining the effect of feature extraction on the accuracy of the clustering and classification method is another goal of this research. This thesis concludes that using PCA increases the learning accuracy, and especially so in classification. SVM classifies Cuprite data with a high precision and the SOM challenges SVM on datasets with high level of noise (like Baffin Island).

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Observation of adverse drug reactions during drug development can cause closure of the whole programme. However, if association between the genotype and the risk of an adverse event is discovered, then it might suffice to exclude patients of certain genotypes from future recruitment. Various sequential and non-sequential procedures are available to identify an association between the whole genome, or at least a portion of it, and the incidence of adverse events. In this paper we start with a suspected association between the genotype and the risk of an adverse event and suppose that the genetic subgroups with elevated risk can be identified. Our focus is determination of whether the patients identified as being at risk should be excluded from further studies of the drug. We propose using a utility function to? determine the appropriate action, taking into account the relative costs of suffering an adverse reaction and of failing to alleviate the patient's disease. Two illustrative examples are presented, one comparing patients who suffer from an adverse event with contemporary patients who do not, and the other making use of a reference control group. We also illustrate two classification methods, LASSO and CART, for identifying patients at risk, but we stress that any appropriate classification method could be used in conjunction with the proposed utility function. Our emphasis is on determining the action to take rather than on providing definitive evidence of an association. Copyright (C) 2008 John Wiley & Sons, Ltd.