905 resultados para Reinforcement Learning,resource-constrained devices,iOS devices,on-device machine learning
Resumo:
Machine learning provides tools for automated construction of predictive models in data intensive areas of engineering and science. The family of regularized kernel methods have in the recent years become one of the mainstream approaches to machine learning, due to a number of advantages the methods share. The approach provides theoretically well-founded solutions to the problems of under- and overfitting, allows learning from structured data, and has been empirically demonstrated to yield high predictive performance on a wide range of application domains. Historically, the problems of classification and regression have gained the majority of attention in the field. In this thesis we focus on another type of learning problem, that of learning to rank. In learning to rank, the aim is from a set of past observations to learn a ranking function that can order new objects according to how well they match some underlying criterion of goodness. As an important special case of the setting, we can recover the bipartite ranking problem, corresponding to maximizing the area under the ROC curve (AUC) in binary classification. Ranking applications appear in a large variety of settings, examples encountered in this thesis include document retrieval in web search, recommender systems, information extraction and automated parsing of natural language. We consider the pairwise approach to learning to rank, where ranking models are learned by minimizing the expected probability of ranking any two randomly drawn test examples incorrectly. The development of computationally efficient kernel methods, based on this approach, has in the past proven to be challenging. Moreover, it is not clear what techniques for estimating the predictive performance of learned models are the most reliable in the ranking setting, and how the techniques can be implemented efficiently. The contributions of this thesis are as follows. First, we develop RankRLS, a computationally efficient kernel method for learning to rank, that is based on minimizing a regularized pairwise least-squares loss. In addition to training methods, we introduce a variety of algorithms for tasks such as model selection, multi-output learning, and cross-validation, based on computational shortcuts from matrix algebra. Second, we improve the fastest known training method for the linear version of the RankSVM algorithm, which is one of the most well established methods for learning to rank. Third, we study the combination of the empirical kernel map and reduced set approximation, which allows the large-scale training of kernel machines using linear solvers, and propose computationally efficient solutions to cross-validation when using the approach. Next, we explore the problem of reliable cross-validation when using AUC as a performance criterion, through an extensive simulation study. We demonstrate that the proposed leave-pair-out cross-validation approach leads to more reliable performance estimation than commonly used alternative approaches. Finally, we present a case study on applying machine learning to information extraction from biomedical literature, which combines several of the approaches considered in the thesis. The thesis is divided into two parts. Part I provides the background for the research work and summarizes the most central results, Part II consists of the five original research articles that are the main contribution of this thesis.
Resumo:
2000-luvulla paperikoneiden kustannuskilpailukykyä on parannettu jatkuvasti, mutta se ei ole ollut riittävää. Tarve muutoksiin havaitaan kilpailukyvyn puutteena vuosina 2007–2008. Eräänä hankkeena on paperikoneen suunnitteleminen ja valmistaminen kopiokonseptikoneena, jossa toimitusmoduulina on paperikone perälaatikolta rullaimelle. Moduulikonsepti on toimintatapa, jossa paperikone tuotteistetaan rakenneryhmien ja laitteiden osalta tietyn ominaisuuden mukaan koko paperikonelinjassa. Paperikone rakentuisi sovituista moduulipalikoista. Moduulikonseptitavassa paperikone suunnitellaan ja toteutetaan aina malliaineiston pohjalta kaikissa rakenneryhmissä. Työssä on tarkoitus vertailla kopiokonsepti- ja moduulikonseptimallia. Kaksi tutkimustyön pääkysymystä käsittelee ulkoista kilpailukykyä ja yrityksen sisäistä tehokkuutta valmistaa paperi- ja kartonkikoneita kopiokonsepti- tai moduulikonseptimallilla näkökulmana pitkäaikainen kilpailuetu. Tutkimustulokset selvitettiin Kamenskyn kehittämällä yrityksen strategisen arkkitehtuurin mallilla. Sisäiset ja ulkoiset toiminnot analysoitiin. Ulkoisen ja sisäisen analyysin pohjalta muodostettiin yhdistetty näkemys, synteesianalyysi, joka vastaa työn tavoitteisiin, kahteen pääkysymykseen sekä alakysymyksiin. Kopiokonsepti ei ole ratkaisu pitkäaikaiseen kilpailukykyyn, koska jokainen paperilaji ja konekoko tarvitsevat oman kopiomallinsa. Nykyiset henkilöresurssit eivät tule riittämään näihin koneisiin tarvittavien dokumenttien luomiseen ja ylläpitoon. Suunnittelun perustehtävä muuttuisi projektisuunnittelusta kopiomallien suunnitteluksi. Moduulikonseptilla saavutetaan kaikki ne edut, joita kopiokonseptilla on tavoiteltu, mukaan lukien nimikkeiden uudelleenkäyttö. Moduulikonseptilla voidaan toteuttaa kaikki nykyiset ja tulevat paperikoneet ja paperilajit. Vuosittain saatavissa oleva määrä on 1,5–2,5 kopiokonseptipaperikonetta. Moduulikonseptimallia on saatavissa sama määrä.
Resumo:
Mass-produced paper electronics (large area organic printed electronics on paper-based substrates, “throw-away electronics”) has the potential to introduce the use of flexible electronic applications in everyday life. While paper manufacturing and printing have a long history, they were not developed with electronic applications in mind. Modifications to paper substrates and printing processes are required in order to obtain working electronic devices. This should be done while maintaining the high throughput of conventional printing techniques and the low cost and recyclability of paper. An understanding of the interactions between the functional materials, the printing process and the substrate are required for successful manufacturing of advanced devices on paper. Based on the understanding, a recyclable, multilayer-coated paper-based substrate that combines adequate barrier and printability properties for printed electronics and sensor applications was developed in this work. In this multilayer structure, a thin top-coating consisting of mineral pigments is coated on top of a dispersion-coated barrier layer. The top-coating provides well-controlled sorption properties through controlled thickness and porosity, thus enabling optimizing the printability of functional materials. The penetration of ink solvents and functional materials stops at the barrier layer, which not only improves the performance of the functional material but also eliminates potential fiber swelling and de-bonding that can occur when the solvents are allowed to penetrate into the base paper. The multi-layer coated paper under consideration in the current work consists of a pre-coating and a smoothing layer on which the barrier layer is deposited. Coated fine paper may also be used directly as basepaper, ensuring a smooth base for the barrier layer. The top layer is thin and smooth consisting of mineral pigments such as kaolin, precipitated calcium carbonate, silica or blends of these. All the materials in the coating structure have been chosen in order to maintain the recyclability and sustainability of the substrate. The substrate can be coated in steps, sequentially layer by layer, which requires detailed understanding and tuning of the wetting properties and topography of the barrier layer versus the surface tension of the top-coating. A cost competitive method for industrial scale production is the curtain coating technique allowing extremely thin top-coatings to be applied simultaneously with a closed and sealed barrier layer. The understanding of the interactions between functional materials formulated and applied on paper as inks, makes it possible to create a paper-based substrate that can be used to manufacture printed electronics-based devices and sensors on paper. The multitude of functional materials and their complex interactions make it challenging to draw general conclusions in this topic area. Inevitably, the results become partially specific to the device chosen and the materials needed in its manufacturing. Based on the results, it is clear that for inks based on dissolved or small size functional materials, a barrier layer is beneficial and ensures the functionality of the printed material in a device. The required active barrier life time depends on the solvents or analytes used and their volatility. High aspect ratio mineral pigments, which create tortuous pathways and physical barriers within the barrier layer limit the penetration of solvents used in functional inks. The surface pore volume and pore size can be optimized for a given printing process and ink through a choice of pigment type and coating layer thickness. However, when manufacturing multilayer functional devices, such as transistors, which consist of several printed layers, compromises have to be made. E.g., while a thick and porous top-coating is preferable for printing of source and drain electrodes with a silver particle ink, a thinner and less absorbing surface is required to form a functional semiconducting layer. With the multilayer coating structure concept developed in this work, it was possible to make the paper substrate suitable for printed functionality. The possibility of printing functional devices, such as transistors, sensors and pixels in a roll-to-roll process on paper is demonstrated which may enable introducing paper for use in disposable “onetime use” or “throwaway” electronics and sensors, such as lab-on-strip devices for various analyses, consumer packages equipped with product quality sensors or remote tracking devices.
Resumo:
Many studies have attempted to evaluate the importance of airborne fungi in the development of invasive fungal infection, especially for immunocompromised hosts. Several kinds of instruments are available to quantitate fungal propagule levels in air. We compared the performance of the most frequently used air sampler, the Andersen sampler with six stages, with a portable one, the Reuter centrifugal sampler (RCS). A total of 84 samples were analyzed, 42 with each sampler. Twenty-eight different fungal genera were identified in samples analyzed with the Andersen instrument. In samples obtained with the RCS only seven different fungal genera were identified. The three most frequently isolated genera in samples analyzed with both devices were Penicillium, Aspergillus and Cladophialophora. In areas supplied with a high efficiency particulate air filter, fungal spore levels were usually lower when compared to areas without these filters. There was a significant correlation between total fungal propagule measurements taken with both devices on each sampling occasion (Pearson coefficient = 0.50). However, the Andersen device recovered a broader spectrum of fungi. We conclude that the RCS can be used for quantitative estimates of airborne microbiological concentrations. For qualitative studies, however, this device cannot be recommended.
Resumo:
Yli 140 miljoonaa ihmistä kärsii kroonisesta eteisvärinästä. Monilla ihmisillä on eteisvärinää, vaikkeivat siitä itse tiedä. Hoito on yksinkertainen, mutta hoidon piiriin eivät päädy kaikki yksinkertaisten seulontamenettelyjen tuloksena. Elektrokardiogrammi (EKG) sydämen toimintojen tunnistusmenetelmänä on tällä hetkellä yleisin vaihtoehto eteisvärinän seulontaan. EKG-laitteet ovat arvokkaita ja haasteellisia yksittäisen käyttäjän arkielämän kannalta. Vaihtoehtoinen sydämen monitorointimenetelmä on ballistokardiografinen (BKG) mittaus. EKG:n ja BKG:n ominaisia piirteitä käydään lävitse ja vertaillaan vahvuuksia sekä heikkouksia näiden kahden mittausmenetelmän välillä. BKG:ta on tutkittu jo pitkään, mutta mittaukseen soveltuvia tähän käyttökohteeseen varsinaisesti suunniteltuja laitteita ei ole paljoakaan tuotteistettu markkinoille asti. Työssä tutkitaan matkapuhelimen kiihtyvyysanturin soveltuvuutta BKG-mittauksen suorittamiseen. Tällä menetelmällä on mahdollista tuoda helposti sydänmonitori lähelle ihmisiä ja jokainen voi omalla matkapuhelimellaan tarkkailla sydämensä toimintaa. Diplomityössä selvitetään erilaisten markkinoilla olevien mobiililaitteiden soveltuvuutta kiihtyvyysanturitutkimukseen. Useampaa mallia koskevan selvitystyön tuloksena valitaan parhaiten toimiva vaihtoehto, jolla jatketaan tutkimusta suunnittelemalla mittausprosessi. Ensimmäisen vaiheen mittauksissa valitaan 20 perustervettä koehenkilöä tutkimukseen. Tutkimuksen tuloksena saadaan tutkimushypoteesin mukainen tulos ja sydämen lyönnit saadaan tunnistettua kaikilla koehenkilöillä. Ensimmäisen vaiheen aikana suoritetaan myös liikehäiriötutkimusta. Tässä suoritetaan yksinkertaiset käden, jalan ja pään liikkeiden vaikutuksen arvioinnit kiihtyvyysanturisignaaliin. Lisäksi selvitetään, miten puhuminen mittauksen aikana välittyy tutkimuslaitteeseen ja suoritetaan arvio siitä, miten tämä voidaan ottaa huomioon. Ensimmäisen vaiheen havaintojen perusteella jatkokehitetään mittausprosessia ja pyritään optimoimaan tätä, jotta laajempi otosjoukko on mahdollista saavuttaa mahdollisimman vähän aikaresursseja kuluttaen. Työssä valmistellaan laajemman, 1000 koehenkilöä sisältävän, toisen tutkimusvaiheen suoritusta. Diplomityön osana valmistellaan Varsinais-Suomen Sairaanhoitopiirin eettiselle toimikunnalle lausuntohakemus tutkimukselle. Hakemuksessa käsitellään laajasti tutkimuksen suorittamista eri osa-alueilla. Toisen vaiheen tuloksen noudattaessa tutkimushypoteesia, voidaan todeta matkapuhelimen kiihtyvyysanturin olevan soveluva menetelmä sydämen toiminnan tutkimiseen.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
Introduction: Les efforts globaux pour contrôler la tuberculose sont présentement restreints par la prévalence croissante du VIH/SIDA. Quoique les éclosions de la tuberculose multi résistante (TB-MDR) soient fréquemment rapportées parmi les populations atteintes du SIDA, le lien entre VIH/SIDA et le développement de résistance n’est pas clair. Objectifs: Cette recherche visait à : (1) développer une base de connaissances concernant les facteurs associés à des éclosions de la TB-MDR parmi les patients atteints du VIH/SIDA; (2) utiliser ce cadre de connaissances pour accroître des mesures préliminaires pour mieux contrôler la tuberculose pulmonaire chez les patients atteints du VIH/SIDA; et (3) afin d’améliorer l’application des ces mesures, affiner les techniques bactériologiques existantes pour Mycobacterium tuberculosis. Méthodologie: Quatre études ont été réalisées : (1) Une étude longitudinale pour identifier les facteurs associés avec une éclosion de la TB-MDR parmi les patients atteints du SIDA qui ont reçu le traitement directement supervisé de courte durée (DOTS) pour la tuberculose pulmonaire au Lima et au Pérou entre 1999 et 2005; (2) Une étude transversale pour décrire différentes étapes de l’histoire naturelle de la tuberculose, la prévalence et les facteurs associés avec la mycobactérie qu’on retrouve dans les selles des patients atteints du SIDA; (3) Un projet pilote pour développer des stratégies de dépistage pour la tuberculose pulmonaire parmi les patients hospitalisés atteints du SIDA, en utilisant l’essaie Microscopic Observation Drug Susceptibility (MODS); et (4) Une étude laboratoire pour identifier les meilleures concentrations critiques pour détecter les souches MDR de M. tuberculosis en utilisant l’essaie MODS. Résultats : Étude 1 démontre qu’une épidémie de TB-MDR parmi les patients atteints du SIDA qui ont reçu DOTS pour la tuberculose pulmonaire ait été causée par la superinfection du clone de M. tuberculosis plutôt que le développement de la résistance secondaire. Bien que ce clone ait été plus commun parmi la cohorte de patients atteints du SIDA, il n’avait aucune différence de risque pour superinfection entre les patients avec ou sans SIDA. Ces résultats suggèrent qu’un autre facteur, possiblement associé à la diarrhée, peu contribuer à la prévalence élevée de ce clone chez les patients atteints du SIDA. Étude 2 suggère que chez la plupart des patients atteints du SIDA il a été retrouvé une mycobactérie dans leurs selles alors qu’ils étaient en phase terminale au niveau de la tuberculose pulmonaire. Or, les patients atteints du SIDA ayant été hospitalisés pendant les deux dernières années pour une autre condition médicale sont moins à risque de se retrouver avec une mycobactérie dans leurs selles. Étude 3 confirme que la tuberculose pulmonaire a été commune à tous les patients hospitalisés atteints du SIDA, mais diagnostiquée incorrectement en utilisant les critères cliniques présentement recommandés pour la tuberculose. Or, l’essaie MODS a détecté pour la plupart de ces cas. De plus, MODS a été également efficace quand la méthode a été dirigée aux patients soupçonnés d’avoir la tuberculose, à cause de leurs symptômes. Étude 4 démontre les difficultés de détecter les souches de M. tuberculosis avec une faible résistance contre ethambutol et streptomycine en utilisant l’essai MODS avec les concentrations de drogue présentement recommandées pour un milieu de culture. Cependant, l’utilité diagnostique de MODS peut être améliorée ; modifier les concentrations critiques et utiliser deux plaques et non une, pour des tests réguliers. Conclusion: Nos études soulèvent la nécessité d’améliorer le diagnostic et le traitement de la tuberculose parmi les patients atteints du SIDA, en particulier ceux qui vivent dans des régions avec moins de ressources. Par ailleurs, nos résultats font ressortir les effets indirects que les soins de santé ont sur les patients infectés par le VIH et qu’ils peuvent avoir sur le développement de la tuberculose.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».
Resumo:
En 1999 est apparue une nouvelle génération d’appareils vidéo basés sur une technologie numérique et offrant au grand public d’innombrables fonctionnalités jusqu’à présent inimaginables selon la technologie traditionnelle des magnétoscopes. En permettant, entre autres, d’éliminer les messages publicitaires et de transmettre l’enregistrement d’une émission à un tiers via les réseaux établis par les diverses entreprises développant cette technologie, ces appareils viennent bonifier l’expérience télévisuelle des consommateurs. Cependant, ces nouvelles fonctionnalités soulèvent également de nouvelles inquiétudes pour les détenteurs de droits d’auteurs. Afin d’évaluer la validité de ces inquiétudes, l’auteur trace un portrait global des problématiques juridiques pouvant émerger suite à l’apparition d’appareils vidéo numériques en sol canadien. Pour ce faire, il fait un exposé des raisons pour lesquelles la technologie employée pourrait contrevenir à certaines dispositions de la Loi sur le droit d’auteur en s’attardant à une analyse des dispositions pertinentes de cette loi et aux possibles répercussion que celles-ci pourraient avoir sur cette nouvelle génération d’appareils vidéo.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.
Resumo:
Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.
Resumo:
Nanoscale silica was synthesized by precipitation method using sodium silicate and dilute hydrochloric acid under controlled conditions. The synthesized silica was characterized by Scanning Electron Microscopy (SEM), Transmission Electron Microscopy (TEM), BET adsorption and X-Ray Diffraction (XRD). The particle size of silica was calculated to be 13 nm from the XRD results and the surface area was found to be 295 m2/g by BET method. The performance of this synthesized nanosilica as a reinforcing filler in natural rubber (NR) compound was investigated. The commercial silica was used as the reference material. Nanosilica was found to be effective reinforcing filler in natural rubber compound. Filler-matrix interaction was better for nanosilica than the commercial silica. The synthesized nanosilica was used in place of conventional silica in HRH (hexamethylene tetramine, resorcinol and silica) bonding system for natural rubber and styrene butadiene rubber / Nylon 6 short fiber composites. The efficiency of HRH bonding system based on nanosilica was better. Nanosilica was also used as reinforcing filler in rubber / Nylon 6 short fiber hybrid composite. The cure, mechanical, ageing, thermal and dynamic mechanical properties of nanosilica / Nylon 6 short fiber / elastomeric hybrid composites were studied in detail. The matrices used were natural rubber (NR), nitrile rubber (NBR), styrene butadiene rubber (SBR) and chloroprene rubber (CR). Fiber loading was varied from 0 to 30 parts per hundred rubber (phr) and silica loading was varied from 0 to 9 phr. Hexa:Resorcinol:Silica (HRH) ratio was maintained as 2:2:1. HRH loading was adjusted to 16% of the fiber loading. Minimum torque, maximum torque and cure time increased with silica loading. Cure rate increased with fiber loading and decreased with silica content. The hybrid composites showed improved mechanical properties in the presence of nanosilica. Tensile strength showed a dip at 10 phr fiber loading in the case of NR and CR while it continuously increased with fiber loading in the case of NBR and SBR. The nanosilica improved the tensile strength, modulus and tear strength better than the conventional silica. Abrasion resistance and hardness were also better for the nanosilica composites. Resilience and compression set were adversely affected. Hybrid composites showed anisotropy in mechanical properties. Retention in ageing improved with fiber loading and was better for nanosilica-filled hybrid composites. The nanosilica also improved the thermal stability of the hybrid composite better than the commercial silica. All the composites underwent two-step thermal degradation. Kinetic studies showed that the degradation of all the elastomeric composites followed a first-order reaction. Dynamic mechanical analysis revealed that storage modulus (E’) and loss modulus (E”) increased with nanosiica content, fiber loading and frequency for all the composites, independent of the matrix. The highest rate of increase was registered for NBR rubber.
Resumo:
Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.Embedded systems are usually designed for a single or a specified set of tasks. This specificity means the system design as well as its hardware/software development can be highly optimized. Embedded software must meet the requirements such as high reliability operation on resource-constrained platforms, real time constraints and rapid development. This necessitates the adoption of static machine codes analysis tools running on a host machine for the validation and optimization of embedded system codes, which can help meet all of these goals. This could significantly augment the software quality and is still a challenging field.This dissertation contributes to an architecture oriented code validation, error localization and optimization technique assisting the embedded system designer in software debugging, to make it more effective at early detection of software bugs that are otherwise hard to detect, using the static analysis of machine codes. The focus of this work is to develop methods that automatically localize faults as well as optimize the code and thus improve the debugging process as well as quality of the code.Validation is done with the help of rules of inferences formulated for the target processor. The rules govern the occurrence of illegitimate/out of place instructions and code sequences for executing the computational and integrated peripheral functions. The stipulated rules are encoded in propositional logic formulae and their compliance is tested individually in all possible execution paths of the application programs. An incorrect sequence of machine code pattern is identified using slicing techniques on the control flow graph generated from the machine code.An algorithm to assist the compiler to eliminate the redundant bank switching codes and decide on optimum data allocation to banked memory resulting in minimum number of bank switching codes in embedded system software is proposed. A relation matrix and a state transition diagram formed for the active memory bank state transition corresponding to each bank selection instruction is used for the detection of redundant codes. Instances of code redundancy based on the stipulated rules for the target processor are identified.This validation and optimization tool can be integrated to the system development environment. It is a novel approach independent of compiler/assembler, applicable to a wide range of processors once appropriate rules are formulated. Program states are identified mainly with machine code pattern, which drastically reduces the state space creation contributing to an improved state-of-the-art model checking. Though the technique described is general, the implementation is architecture oriented, and hence the feasibility study is conducted on PIC16F87X microcontrollers. The proposed tool will be very useful in steering novices towards correct use of difficult microcontroller features in developing embedded systems.
Resumo:
Learning Disability (LD) is a general term that describes specific kinds of learning problems. It is a neurological condition that affects a child's brain and impairs his ability to carry out one or many specific tasks. The learning disabled children are neither slow nor mentally retarded. This disorder can make it problematic for a child to learn as quickly or in the same way as some child who isn't affected by a learning disability. An affected child can have normal or above average intelligence. They may have difficulty paying attention, with reading or letter recognition, or with mathematics. It does not mean that children who have learning disabilities are less intelligent. In fact, many children who have learning disabilities are more intelligent than an average child. Learning disabilities vary from child to child. One child with LD may not have the same kind of learning problems as another child with LD. There is no cure for learning disabilities and they are life-long. However, children with LD can be high achievers and can be taught ways to get around the learning disability. In this research work, data mining using machine learning techniques are used to analyze the symptoms of LD, establish interrelationships between them and evaluate the relative importance of these symptoms. To increase the diagnostic accuracy of learning disability prediction, a knowledge based tool based on statistical machine learning or data mining techniques, with high accuracy,according to the knowledge obtained from the clinical information, is proposed. The basic idea of the developed knowledge based tool is to increase the accuracy of the learning disability assessment and reduce the time used for the same. Different statistical machine learning techniques in data mining are used in the study. Identifying the important parameters of LD prediction using the data mining techniques, identifying the hidden relationship between the symptoms of LD and estimating the relative significance of each symptoms of LD are also the parts of the objectives of this research work. The developed tool has many advantages compared to the traditional methods of using check lists in determination of learning disabilities. For improving the performance of various classifiers, we developed some preprocessing methods for the LD prediction system. A new system based on fuzzy and rough set models are also developed for LD prediction. Here also the importance of pre-processing is studied. A Graphical User Interface (GUI) is designed for developing an integrated knowledge based tool for prediction of LD as well as its degree. The designed tool stores the details of the children in the student database and retrieves their LD report as and when required. The present study undoubtedly proves the effectiveness of the tool developed based on various machine learning techniques. It also identifies the important parameters of LD and accurately predicts the learning disability in school age children. This thesis makes several major contributions in technical, general and social areas. The results are found very beneficial to the parents, teachers and the institutions. They are able to diagnose the child’s problem at an early stage and can go for the proper treatments/counseling at the correct time so as to avoid the academic and social losses.
Resumo:
Data caching can remarkably improve the efficiency of information access in a wireless ad hoc network by reducing the access latency and bandwidth usage. The cache placement problem minimizes total data access cost in ad hoc networks with multiple data items. The ad hoc networks are multi hop networks without a central base station and are resource constrained in terms of channel bandwidth and battery power. By data caching the communication cost can be reduced in terms of bandwidth as well as battery energy. As the network node has limited memory the problem of cache placement is a vital issue. This paper attempts to study the existing cooperative caching techniques and their suitability in mobile ad hoc networks.