700 resultados para Visualisation de logiciels
Resumo:
There appears to be a limited but growing body of research on the sequential analysis/treatment of multiple types of evidence. The development of an integrated forensic approach is necessary to maximise evidence recovery and to ensure that a particular treatment is not detrimental to other types of evidence. This study aims to assess the effect of latent and blood mark enhancement techniques (e.g. fluorescence, ninhydrin, acid violet 17, black iron-oxide powder suspension) on the subsequent detection of saliva. Saliva detection was performed by means of a presumptive test (Phadebas®) in addition to analysis by a rapid stain identification (RSID) kit test and confirmatory DNA testing. Additional variables included a saliva depletion series and a number of different substrates with varying porosities as well as different ageing periods. Examination and photography under white light and fluorescence was carried out prior to and after chemical enhancement All enhancement techniques (except Bluestar® Forensic Magnum luminol) employed in this study resulted in an improved visualisation of the saliva stains, although the inherent fluorescence of saliva was sometimes blocked after chemical treatment. The use of protein stains was, in general, detrimental to the detection of saliva. Positive results were less pronounced after the use of black iron-oxide powder suspension, cyanoacrylate fuming followed by BY40 and ninhydrin when compared to the respective positive controls. The application of Bluestar® Forensic Magnum luminol and black magnetic powder proved to be the least detrimental, with no significant difference between the test results and the positive controls. The use of non-destructive fluorescence examination provided good visualisation; however, only the first few marks in the depletion were observed. Of the samples selected for DNA analysis only depletion 1 samples contained sufficient DNA quantity for further processing using standard methodology. The 28 day delay between sample deposition and collection resulted in a 5-fold reduction in the amount of useable DNA. When sufficient DNA quantities were recovered, enhancement techniques did not have a detrimental effect on the ability to generate DNA profiles. This study aims to contribute to a strategy for maximising evidence recovery and efficiency for the detection of latent marks and saliva. The results demonstrate that most of the enhancement techniques employed in this study were not detrimental to the subsequent detection of saliva by means of presumptive, confirmative and DNA tests.
Resumo:
Targeted cancer therapy aims to disrupt aberrant cellular signalling pathways. Biomarkers are surrogates of pathway state, but there is limited success in translating candidate biomarkers to clinical practice due to the intrinsic complexity of pathway networks. Systems biology approaches afford better understanding of complex, dynamical interactions in signalling pathways targeted by anticancer drugs. However, adoption of dynamical modelling by clinicians and biologists is impeded by model inaccessibility. Drawing on computer games technology, we present a novel visualisation toolkit, SiViT, that converts systems biology models of cancer cell signalling into interactive simulations that can be used without specialist computational expertise. SiViT allows clinicians and biologists to directly introduce for example loss of function mutations and specific inhibitors. SiViT animates the effects of these introductions on pathway dynamics, suggesting further experiments and assessing candidate biomarker effectiveness. In a systems biology model of Her2 signalling we experimentally validated predictions using SiViT, revealing the dynamics of biomarkers of drug resistance and highlighting the role of pathway crosstalk. No model is ever complete: the iteration of real data and simulation facilitates continued evolution of more accurate, useful models. SiViT will make accessible libraries of models to support preclinical research, combinatorial strategy design and biomarker discovery.
Resumo:
L'évolution très rapide de l'économie, la globalisation des marchés et l'incertitude liée aux conditions économiques obligent les organisations, autant les petites que les grandes, à faire un effort systématique pour connaître à tout moment leur situation actuelle, pour prévoir où elles seront dans quelques mois ou quelques années et pour analyser les stratégies et les opportunités en accord avec les buts et les objectifs qu’elles se sont donnés. Les entreprises se sont dotées au cours des vingt dernières années, de systèmes informatisés de plus en plus complexes afin de connaître leurs résultats financiers. Mais ces systèmes se sont graduellement alourdis au cours des ans, si bien qu'ils ne peuvent montrer de façon rapide la véritable situation de la firme. Pourtant, l’administrateur a besoin de cette information de façon instantanée. De plus, les systèmes informatisés implantés dans les entreprises n'ont pas été développés pour simuler l'avenir : le gestionnaire est souvent obligé de se fier à son instinct. Cependant, à cause de la vitesse vertigineuse à laquelle elle évolue, de la multitude de problèmes différents et complexes qui l’assaillent et de la concurrence de plus en plus difficile et féroce, l'entreprise qui n'a pas à sa disposition des outils informatiques efficaces risque de se faire dépasser par ses concurrentes. Heureusement, les derniers développements technologiques en micro et en mini-informatique permettent aux organisations de résoudre plus facilement beaucoup de leurs problèmes. L'avènement récent de logiciels spécialisés dans la livraison aux décideurs des informations essentielles à la bonne gestion et à la prise de décision permet à l'entreprise de demeurer très compétitive. Ces systèmes sont très faciles à opérer: le dirigeant a accès à l’information sans assistance technique. Ces nouveaux outils permettent au cadre de s'assurer que son organisation est en bonne santé ou, le cas échéant, de corriger les problèmes. Ces systèmes, communément appelés des tableaux de bord pour administrateurs, aident ceux-ci à analyser les tendances et à chiffrer les différentes stratégies. La présente étude vise à appliquer aux cégeps ce type de système informatique.
Resumo:
A review of recent research in the use of one-step fluorescent cyanoacrylate techniques is presented. Advantages and disadvantages of such techniques in comparison to two-step processes are discussed. Further studies and new experimental data are presented to aid this review: three one-step cyanoacrylate products (Lumicyano, PolyCyano UV and PECA Multiband) containing a fluorescent dye were tested to evaluate their effectiveness in developing latent fingermarks on polyethylene bags by means of a pseudo operational trial. The results were compared to the traditional two-step process of cyanoacrylate fuming followed by staining with ethanol-based basic yellow 40 (BY40). The study was conducted using sequential treatments of an initial fuming cycle, a second cycle and finally BY40 staining. LumicyanoTM and PolyCyano UV performed similarly before BY40 staining, with both providing good contrast and visibility under fluorescence. PECA Multiband, however, did not develop as many fingermarks and proved to be problematic for the fuming cabinet. Subsequent BY40 staining of fingermarks developed by all three one-step processes enabled the visualisation of new fingermarks.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.
Resumo:
Telomeres are DNA-protein complexes which cap the ends of eukaryotic linear chromosomes. In normal somatic cells telomeres shorten and become dysfunctional during ageing due to the DNA end replication problem. This leads to activation of signalling pathways that lead to cellular senescence and apoptosis. However, cancer cells typically bypass this barrier to immortalisation in order to proliferate indefinitely. Therefore enhancing our understanding of telomere dysfunction and pathways involved in regulation of the process is essential. However, the pathways involved are highly complex and involve interaction between a wide range of biological processes. Therefore understanding how telomerase dysfunction is regulated is a challenging task and requires a systems biology approach. In this study I have developed a novel methodology for visualisation and analysis of gene lists focusing on the network level rather than individual or small lists of genes. Application of this methodology to an expression data set and a gene methylation data set allowed me to enhance my understanding of the biology underlying a senescence inducing drug and the process of immortalisation respectively. I then used the methodology to compare the effect of genetic background on induction of telomere uncapping. Telomere uncapping was induced in HCT116 WT, p21-/- and p53-/- cells using a viral vector expressing a mutant variant of hTR, the telomerase RNA template. p21-/- cells showed enhanced sensitivity to telomere uncapping. Analysis of a candidate pathway, Mismatch Repair, revealed a role for the process in response to telomere uncapping and that induction of the pathway was p21 dependent. The methodology was then applied to analysis of the telomerase inhibitor GRN163L and synergistic effects of hypoglycaemia with this drug. HCT116 cells were resistant to GRN163L treatment. However, under hypoglycaemic conditions the dose required for ablation of telomerase activity was reduced significantly and telomere shortening was enhanced. Overall this new methodology has allowed our group and collaborators to identify new biology and improve our understanding of processes regulating telomere dysfunction.
Resumo:
La présente thèse décrit des travaux de recherches effectués sur des systèmes tutoriels intelligents (STI) et plus précisément sur les tuteurs par traçage de modèle (MTT). Les travaux de recherche présentés ici s’intéressent à la conception de MTT pour des domaines dans lesquels les étudiants peuvent résoudre la tâche qui leur est assignée de plusieurs façons. Ces domaines comportent parfois des algorithmes avec retour sur trace lorsque l’étudiant ne sait pas forcément quelles sont les alternatives qui feront progresser correctement l’état de la tâche.Cette thèse présente dans un premier temps un système de représentation de connaissances pour les algorithmes avec retour sur trace qui rend les connaissances de cet algorithme exploitables par des agents logiciels. Elle présente dans un second temps un ensemble de processus qui exploitent ces connaissances dans le cadre de MTT pour assurer automatiquement le suivi de l’étudiant et ainsi que la production d’interventions pédagogiques. En premier, ces interventions consistent à fournir à l'étudiant de l’aide pour la prochaine étape qui explique quelles sont les possibilités dont dispose l'étudiant et comment déterminer laquelle est la meilleure. En deuxième, elles fournissent à l'étudiant des rétroactions stratégiques qui lui confirment que son action est valide tout en l’informant de l’existence d’une meilleure alternative le cas échéant. Enfin, elles fournissent à l'étudiant des rétroactions négatives qui lui apprennent dans quelles situations les actions invalides qu’il vient d’effectuer s’appliquent.Une expérimentation a été réalisée avec des étudiants de biologie de l’Université de Sherbrooke pour évaluer les effets de ces interventions sur les choix des étudiants au cours de la résolution de la tâche. Les résultats de cette expérience montrent que les étudiants bénéficiant de ces interventions effectuent plus souvent des choix optimaux, et démontrent ainsi une plus grande maîtrise du domaine.
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
Suppressor of cytokine signalling 3 (SOCS3) is a potent inhibitor of the mitogenic, migratory and pro-inflammatory pathways responsible for the development of neointimal hyperplasia (NIH), a key contributor to the failure of vascular reconstructive procedures. However, the protein levels of SOCS3, and therefore its potential to reduce NIH, is limited by its ubiquitylation and high turnover by the proteasome. I hypothesised that stabilisation of endogenous SOCS3 by inhibiting its ubiquitylation has the potential to limit vascular inflammation and NIH. Consequently, the aim of this PhD was to identify the mechanisms promoting the rapid turnover of SOCS3. Initial experiments involved the identification of residues involved in regulating the turnover of SOCS3 at the proteasome. I assessed the ubiquitylation status of a panel of FLAG tagged SOCS3 truncation mutants and identified a C-terminal 44 amino acid region required for SOCS3 ubiquitylation. This region localised to the SOCS box which is involved in binding Elongin B/C and the formation of a functional E3 ubiquitin ligase complex. However, the single lysine residue at position 173, located within this 44 amino acid region, was not required for ubiquitylation. Moreover, Emetine chase assays revealed that loss of either Lys173 or Lys6 (as documented in the literature) had no significant effect on SOCS3 stability 8 hrs post emetine treatment. As mutagenesis studies failed to identify key sites of ubiquitylation responsible for targeting SOCS3 to the proteasome, LC-MS-MS analysis of a SOCS3 co-immunoprecipitate was employed. These data were searched for the presence of a Gly-Gly doublet (+114 Da mass shift) and revealed 8 distinct sites of ubiquitylation (Lys23, Lys28, Lys40, Lys85, Lys91, Lys173, Lys195, Lys206) on SOCS3 however Lys6 ubiquitylation was not detected. As multiple Lys residues were ubiquitylated, I hypothesised that only a Lys-less SOCS3, in which all 8 Lys residues were mutated to Arg, would be resistant to ubiquitylation. Compared to WT SOCS3, Lys-less SOCS3 was indeed found to be completely resistant to ubiquitylation, and significantly more stable than WT SOCS3. These changes occurred in the absence of any detrimental effect on the ability of Lys-less SOCS3 to interact with the Elongin B/C components required to generate a functional E3 ligase complex. In addition, both WT and Lys-less SOCS3 were equally capable of inhibiting cytokine-stimulated STAT3 phosphorylation upon co-expression with a chimeric EpoR-gp130 receptor. To assess whether SOCS3 auto-ubiquitylates I generated an L189A SOCS3 mutant that could no longer bind the Elongins and therefore form the E3 ligase complex required for ubiquitylation. A denaturing IP to assess the ubiquitylation status of this mutant was performed and revealed that, despite an inability to bind the Elongins, the L189A mutant was poly-ubiquitylated similar to WT SOCS3. Together these data suggested that SOCS3 does not auto-ubiquitylate and that a separate E3 ligase must regulate SOCS3 ubiquitylation. This study sought to identify the E3 ligase and deubiquitylating (DUB) enzymes controlling the ubiquitylation of SOCS3. Our initial strategy was to develop a tool to screen an E3 ligase/DUB library, using an siARRAY, to sequentially knockdown all known E3 ligases in the presence of a SOCS3-luciferase fusion protein or endogenous SOCS3 in a high content imaging screening platform. However, due to a poor assay window (<2) and non-specific immunoreactivity of SOCS3 antibodies available, these methods were deemed unsuitable for screening purposes. In the absence of a suitable tool to screen the si-ARRAY, LC-MS-MS analysis of a SOCS3 co-immunoprecipitate (co-IP) was investigated. I performed a SOCS3 under conditions which preserved protein-protein interactions, with the aim of identifying novel E3 ligase and/or DUBs that could potentially interact with SOCS3. These data were searched for E3 ligase or DUB enzymes that may interact with SOCS3 in HEK293 cells and identified two promising candidates i) an E3 ligase known as HectD1 and ii) a DUB known as USP15. This thesis has demonstrated that in the presence of HectD1 overexpression, a slight increase in K63-linked polyubiquitylation of SOCS3 was observed. Mutagenesis also revealed that an N-terminal region of SOCS3 may act as a repressor of this interaction with HectD1. Additionally, USP15 was shown to reduce SOCS3 polyubiquitylation in a HEK293 overexpression system suggesting this may act as a DUB for SOCS3. The C-terminal region of SOCS3 was also shown to play a major role in the interaction with USP15. The original hypothesis of this thesis was that stabilisation of endogenous SOCS3 by inhibiting its ubiquitylation has the potential to limit vascular inflammation and NIH. Consistent with this hypothesis, immunohistochemistry visualisation of SOCS3, in human saphenous vein tissue derived from CABG patients, revealed that while SOCS3 was present throughout the media of these vessels the levels of SOCS3 within the neointima was reduced. Finally, preliminary data supporting the hypothesis that SOCS3 overexpression may limit the proliferation, but not migration, of human saphenous vein smooth muscle cells (HSVSMCs) is presented. It is expected that multiple E3 ligases and DUBs will contribute to the regulation of SOCS3 turnover. However, the identification of candidate E3 ligases or DUBs that play a significant role in SOCS3 turnover may facilitate the development of peptide disruptors or gene therapy targets to attenuate pathological SMC proliferation. A targeted approach, inhibiting the interaction between SOCS3 and identified E3 ligase, that controls the levels of SOCS3, would be expected to reduce the undesirable effects associated with global inhibition of the E3 ligase involved.
Resumo:
De nombreux problèmes liés aux domaines du transport, des télécommunications et de la logistique peuvent être modélisés comme des problèmes de conception de réseaux. Le problème classique consiste à transporter un flot (données, personnes, produits, etc.) sur un réseau sous un certain nombre de contraintes dans le but de satisfaire la demande, tout en minimisant les coûts. Dans ce mémoire, on se propose d'étudier le problème de conception de réseaux avec coûts fixes, capacités et un seul produit, qu'on transforme en un problème équivalent à plusieurs produits de façon à améliorer la valeur de la borne inférieure provenant de la relaxation continue du modèle. La méthode que nous présentons pour la résolution de ce problème est une méthode exacte de branch-and-price-and-cut avec une condition d'arrêt, dans laquelle nous exploitons à la fois la méthode de génération de colonnes, la méthode de génération de coupes et l'algorithme de branch-and-bound. Ces méthodes figurent parmi les techniques les plus utilisées en programmation linéaire en nombres entiers. Nous testons notre méthode sur deux groupes d'instances de tailles différentes (gran-des et très grandes), et nous la comparons avec les résultats donnés par CPLEX, un des meilleurs logiciels permettant de résoudre des problèmes d'optimisation mathématique, ainsi qu’avec une méthode de branch-and-cut. Il s'est avéré que notre méthode est prometteuse et peut donner de bons résultats, en particulier pour les instances de très grandes tailles.
Resumo:
In a classical result of 1972 Singerman classifies the inclusions between triangle groups. We extend the classification to a broader family of triangle and quadrangle groups forming a particular subfamily of Fuchsian groups. With two exceptions, each inclusion determines a finite bipartite map (hypermap) on a 2-dimensional spherical orbifold that encodes the complete information and gives a graphical visualisation of the inclusion. A complete description of all the inclusions is contained in the attached tables.
Resumo:
In Brazil, human and canine visceral leishmaniasis (CVL) caused by Leishmania infantum has undergone urbanisation since 1980, constituting a public health problem, and serological tests are tools of choice for identifying infected dogs. Until recently, the Brazilian zoonoses control program recommended enzyme-linked immunosorbent assays (ELISA) and indirect immunofluorescence assays (IFA) as the screening and confirmatory methods, respectively, for the detection of canine infection. The purpose of this study was to estimate the accuracy of ELISA and IFA in parallel or serial combinations. The reference standard comprised the results of direct visualisation of parasites in histological sections, immunohistochemical test, or isolation of the parasite in culture. Samples from 98 cases and 1,327 noncases were included. Individually, both tests presented sensitivity of 91.8% and 90.8%, and specificity of 83.4 and 53.4%, for the ELISA and IFA, respectively. When tests were used in parallel combination, sensitivity attained 99.2%, while specificity dropped to 44.8%. When used in serial combination (ELISA followed by IFA), decreased sensitivity (83.3%) and increased specificity (92.5%) were observed. Serial testing approach improved specificity with moderate loss in sensitivity. This strategy could partially fulfill the needs of public health and dog owners for a more accurate diagnosis of CVL.
Resumo:
Le présent travail consiste à proposer un modèle de représentation des notions théoriques et pratiques de la terminologie et de leurs relations sous forme de thésaurus. Selon la norme ISO 25964-1, 2011, « un thésaurus est un vocabulaire contrôlé et structuré dans lequel les concepts sont représentés par des termes, ayant été organisés afin de rendre explicites les relations entre les concepts (…) ». Notre objectif est de créer un outil pédagogique à la suite d’une réflexion théorique englobant différentes perspectives notionnelles au sein de cette discipline. Les enjeux soulevés par la classification des concepts de certains champs de savoir (notamment ceux donnant lieu à différentes perspectives) n’ont pas été approfondis suffisamment dans la littérature de la terminologie, ni dans celle portant sur les thésaurus. Comment décrire des concepts qui sont sujets à des dissensions théoriques entre les différentes écoles de pensée? Comment classer les différentes relations entretenues par les concepts théoriques et les applications pratiques d’une discipline? À ces questions s’ajoute celle de la prise en compte de ces difficultés dans un thésaurus. Nous commençons par délimiter et organiser les concepts saillants du domaine. Ensuite, à l’aide d’un corpus comprenant des publications associées à différentes approches de la terminologie, nous étudions les réalisations linguistiques de ces concepts et leurs relations en contexte, dans le but de les décrire, de les classer et de les définir. Puis, nous faisons l’encodage de ces données à l’aide d’un logiciel de gestion de thésaurus, en respectant les normes ISO applicables. La dernière étape consiste à définir la visualisation de ces données afin de la rendre conviviale et compréhensible. Enfin, nous présentons les caractéristiques fondamentales du Thésaurus de la terminologie. Nous avons analysé et représenté un échantillon de 45 concepts et leurs termes reliés. Les différents phénomènes associés à ces descripteurs comme la multidimensionalité, la variation conceptuelle et la variation dénominative sont aussi représentés dans notre thésaurus.
Resumo:
We study the problem of detecting sentences describing adverse drug reactions (ADRs) and frame the problem as binary classification. We investigate different neural network (NN) architectures for ADR classification. In particular, we propose two new neural network models, Convolutional Recurrent Neural Network (CRNN) by concatenating convolutional neural networks with recurrent neural networks, and Convolutional Neural Network with Attention (CNNA) by adding attention weights into convolutional neural networks. We evaluate various NN architectures on a Twitter dataset containing informal language and an Adverse Drug Effects (ADE) dataset constructed by sampling from MEDLINE case reports. Experimental results show that all the NN architectures outperform the traditional maximum entropy classifiers trained from n-grams with different weighting strategies considerably on both datasets. On the Twitter dataset, all the NN architectures perform similarly. But on the ADE dataset, CNN performs better than other more complex CNN variants. Nevertheless, CNNA allows the visualisation of attention weights of words when making classification decisions and hence is more appropriate for the extraction of word subsequences describing ADRs.