946 resultados para Classificazione spettrale,Saha,Boltzmann
Resumo:
Chlorophenols have been classified as possible carcinogens for humans. Chlorophenols have been used as pesticides and wood preservatives. In Finland, during 1930 – 1980s, saw mills used KY-5 wood preservative that contained 2,4,6-TCP, 2,3,4,6-TeCP and PCP. Especially in Finland chlorophenols have entered the environment by leaking from contaminated grounds of old saw mills. Although chlorophenol concentrations found in environment do not cause acute concern, long term exposure can increase the risk of cancer. SPME is relatively cheap and simple sampling method, in which the sample extraction and concentration are performed in a single step. Solvents are not required in SPME. IMS is based on the detection of sample ion drift times. Based on the drift times, reduced mobilities are calculated, which are comparable despite the measurement conditions. SPME-IMS coupling has not been used earlier in the determination of chlorophenols from water samples. The scope of this work was to study, if SPME-IMS system is suitable for detecting chloro-phenols from water samples. The aim was to determine the most optimal extraction condi-tions, which were then applied to real water samples. Following detection limits were deter-mined: 2,4,6-TCP: 0.33 mg/l; 2,3,4,6-TeCP: 0.63 mg/l and PCP: 1.63 mg/l. Detection limits were high compared to the highest possible chlorophenol concentration that is allowed in Finnish drinking water, 10 μg/l. Detected concentrations from water sample differed from verified concentrations in the case of 2,3,4,6-TeCP by 4.6 % and in the case of 2,4,6-TCP by 48.4 %. Based on the results it can be said that SPME-IMS setup is suitable for preliminary analysis of mg/l chlorophenol concentrations from water samples.
Resumo:
Kirjallisuusarvostelu
Resumo:
Kirjallisuusarvostelu
Resumo:
A mandioca é uma exploração agrícola importante no Estado do Paraná. No entanto, há limitadas informações relacionadas à interferência das plantas daninhas nessa cultura. Objetivou-se com este trabalho estimar o período crítico de prevenção à interferência (PCPI) na cultura da mandioca (variedade Fécula Branca), nas condições edafoclimáticas do noroeste do Paraná. O experimento foi dividido em dois grupos de tratamentos: com períodos crescentes na presença de plantas daninhas (PAI); e com períodos crescentes na ausência de plantas daninhas (PTPI). Foram identificadas as espécies de plantas daninhas e densidades de infestação na área e calculada a importância relativa (IR), avaliando-se também o estande da cultura e a produtividade de raízes comerciais. As principais plantas daninhas presentes na área e que apresentaram os maiores valores de IR foram Cenchrus echinatus e Brachiaria decumbens. Aceitando-se uma tolerância de redução de produtividade de 5%, o PAI ajustado foi de 18 dias após o plantio da cultura, e o PTPI, de 100 dias. Concluiu-se que o PCPI da cultura para as condições edafoclimáticas do noroeste do Paraná situa-se entre 18 e 100 dias após o plantio.
Resumo:
In this work the Weeks-Chandler-Andersen (WCA) perturbation theory coupled with the Enskogs solution of the Boltzmann equation for dense hard-sphere fluids is employed for estimating diffusion coefficients in compressed pure liquids and fluids and dense fluid mixtures. The effect of density correction on the estimation of diffusivities is analyzed using the Carnahan-Starling pair correlation function and the correlation of Speedy and Harris which have been proposed as models of self-diffusion coefficient of hard-sphere fluids. The approach presented here is based on the smooth hard-sphere theory without any binary adjustable parameters and can be readily used for estimating diffusivities in multicomponent fluid mixtures. It is shown that the correlated and the predicted diffusivities are in good agreement with the experimental data and much better than estimates of Wilke-Chang equation.
Resumo:
Akuutti lymfoblastileukemia (ALL) on lasten yleisin syöpätauti. Nykyisillä hoitomenetelmillä taudin paranemisennuste lähentelee jo 90 %:a. Tehokkailla hoidoilla on kuitenkin haittavaikutuksia. Yksi tärkeimmistä haittavaikutuksista on immuunipuolustusjärjestelmän heikentyminen. ALL-potilaalla immuniteetti on heikentynyt sekä hoitojen että myös itse taudin vuoksi. Immuniteetissa on todettu poikkeavuuksia vielä useita kuukausia hoitojen jälkeenkin. Nykyaikaisten hoitojen vaikutuksista on kuitenkin vielä rajallisesti tietoa, eikä toistaiseksi ole selvää, kuinka pitkään potilaiden infektioalttius ja puolustusjärjestelmän toiminnanvajaus hoitojen jälkeen säilyy. Tässä tutkimuksessa selvitettiin Turun ja Tampereen yliopistollisissa keskussairaaloissa hoidettujen ALL:aa sairastaneiden lasten immuniteetin toipumista solunsalpaajahoitojen jälkeen. Toipumista seurattiin yhteensä kahden vuoden ajan hoitojen päättymisestä mittaamalla laboratoriokokein eri puolustussolujen ja vasta-aineiden määriä, komplementtiaktiivisuuksia ja rokotevasteita. Tutkimuksessa oli mukana yhteensä 32 potilasta, jotka oli hoidettu joko NOPHO ALL-2000 -, tai NOPHO ALL-2008 -hoito-ohjelman mukaisesti. Potilaista 15 kuului vakioriskin ryhmään, 13 keskiriskin ryhmään ja 4 korkean riskin ryhmään. Vakaville bakteeri-infektioille altistavaa merkittävää neutropeniaa ei todettu yhdelläkään potilaalla hoitojen päättyessä tai sen jälkeen. T-, B- ja NK-solujen määrissä, immunoglobuliinitasoissa ja rokotevasteissa todettiin kuitenkin merkittäviä poikkeavuuksia hoitojen jälkeen. Eniten oli vähentynyt B-solujen määrä, kuten aiemmissakin tutkimuksissa on todettu. Pääosin immuuniteettia mittaavat parametrit saavuttivat terveiden verrokkien tason noin kuusi kuukautta hoitojen päättymisen jälkeen, mutta erityisesti auttaja-T-solujen ja IgM-luokan vasta-aineiden normaalistuminen kesti kauemmin. Myös rokotevasteet näyttävät merkittävästi heikentyvän hoitojen seurauksena, mutta seitsemän kuukauden kuluttua hoitojen jälkeen annetulle pneumokokkirokoteelle suojaava rokotevaste syntyi lähes kaikille rokotetuille. Korkean riskin ryhmän potilaiden osalta aineisto on liian pieni päätelmien tekoon, mutta vakio- ja keskiriskinryhmien osalta tutkimustulokset antavat viitteitä eristyskäytäntöjen ja rokotusaikataulujen suunnitteluun.
Resumo:
A ~si MAS NMR study of spin-lattice relaxation behaviour
in paramagnetic-doped crystalline silicates was undertaken,
using synthetic magnesium orthosilicate (forsterite) and
synthetic zinc orthosilicate (willemite) doped with 0.1% to
20% of Co(II), Ni(II), or CU(II), as experimental systems.
All of the samples studied exhibited a longitudinal
magnetization return to the Boltzmann distribution of nuclear
spin states which followed a stretched-exponential function of
time:
Y=exp [- (tjTn) n], O
Resumo:
Les gènes suppresseurs de tumeurs (TSGs) contrôlent la prolifération cellulaire et leur inactivation joue un rôle important dans la leucémogénèse. Deux mécanismes épigénétiques majeurs sont impliqués dans la répression des TSGs: 1- la méthylation de l’ADN et 2- la déacétylation des histones des chromosomes. On les dit épigénétiques car ils n’affectent pas la séquence de l’ADN. Ces phénomènes sont réversibles, faisant donc d’eux des cibles thérapeutiques de choix. Dans le cadre de cette thèse, nous avons évalué le potentiel chimiothérapeutique de différents agents qui visent ces mécanismes épigénétiques et nous les avons administrés seuls et en combinaison dans le but d’améliorer leur efficacité. La 5-aza-2’-désoxycytidine (5-Aza-CdR) est un inhibiteur de la méthylation de l’ADN qui permet la ré-expression des TSGs. Cet agent s’est avéré efficace contre certaines maladies hématologiques et est d’ailleurs approuvé aux États-Unis dans le traitement du syndrome myélodysplasique depuis 2006. Cependant, le protocole d’administration optimal de cet agent, en termes de doses et de durée, n’est toujours pas établi. Nos recherches suggèrent que le celui-ci devrait être plus intensif que ce que rapporte la littérature. Les inhibiteurs des déacétylases des histones (HDACi) ont également montré une activité antinéoplasique intéressante. De récentes recherches ont montré que la combinaison d’agents ciblant à la fois la méthylation de l’ADN et la déacétylation des histones produit une réactivation synergique des TSGs, ce à quoi nous nous sommes intéressé. Nous avons observé que la co-administration d’un HDACi avec la 5-Aza-CdR potentialise son action anti-leucémique. Il est aussi possible d’augmenter l’activité de la 5-Aza-CdR en inhibant sa dégradation par l’enzyme cytidine (CR) désaminase. Nous avons observé que la co-administration du zebularine, un inhibiteur de la CR désaminase, avec la 5-Aza-CdR accroît son efficacité. Le zebularine est aussi un inhibiteur de la méthylation de l’ADN, ce qui pourrait contribuer à la potentialisation de la réponse anti-leucémique observée lors de la co-administration de ces deux agents. En résumé, il est possible d’augmenter l’efficacité anti-leucémique de la 5-Aza-CdR en : 1- intensifiant son protocole d’administration, en termes de doses et de durée, 2- la combinant avec un HDACi, et 3- diminuant sa dégradation par la CR désaminase. L’utilisation de ces résultats précliniques dans l’élaboration de protocoles cliniques pourrait être bénéfique à beaucoup de patients.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Le long bio-polymère d'ADN est condensé à l’intérieur du noyau des cellules eukaryotes à l'aide de petites protéines appelées histones. En plus de leurs fonctions condensatrices,ces histones sont également la cible de nombreuses modifications post-traductionnelles(MPT), particulièrement au niveau de leur section N-terminale. Ces modifications réversibles font partie d’un code d’histones épi-génétique transmissible qui orchestre et module dynamiquement certains événements impliquant la chromatine, tels l’activation et la désactivation de gènes ainsi que la duplication et la réparation d’ADN. Ces modifications sont impliquées subséquemment dans la signalisation et la progression de cancers, tels que la leucémie. En conséquence, l'élucidation des modifications d’histones est importante pour comprendre leurs fonctions biologiques. Une méthodologie analytique a été mise au point en laboratoire pour isoler, détecter, et quantifier les MPT d’histones en utilisant une approche rapide à deux volets à l’aide d’outils bioinformatiques spécialisés. La méthodologie développée en laboratoire a été validée en utilisant des histones de souche sauvage ainsi que deux types d’histones mutants déficients en enzymes acétyltransferase. Des trois sources d’histones utilisées, la seule MPT qui a démontré un changement significatif est l’acétylation de l’histone H3 à lysine 56 (H3K56ac). L’expression et la stoechiométrie de cette MPT, issue de cellules de souche sauvage et de cellules mutantes, ont été déterminées avec précision et comparées. Les fonctions de balayage polyvalentes d'un instrument à trappe ionique quadrupôle linéaire hybride ont été utilisées pour améliorer la détection de protéines intactes. Le mode de balayage « enhanced multiply charged » (EMC) a été modifié pour contenir et détecter les ions de protéines intactes situées dans la trappe ionique linéaire. Ce mode de balayage nommé « targeted EMC » (tEMC) a permis de quadrupler le niveau de sensibilité (signal/interférence), et quintupler la résolution du mode de balayage conventionnel. De plus, la capacité de séparation des charges du tEMC a réduit de façon significative les effets de « space charge » dans la trappe ionique linéaire. La résolution supérieure du mode tEMC a permis de différencier plusieurs isoformes modifiées, particulièrement pour l’histone H3. L’analyse des peptides d’histones trypsiques à l’aide du mode de balayage « MRM » a permis le séquençage et la quantification de MPT avec un haut degré de précision. La seule MPT qui était sous-exprimée entre l’histone de souche sauvage et le mutant DOT1L fut la méthylation de l’histone H3 lysine 79(H3K79me1). Les effets de deux inhibiteurs d’enzymes HDAC (HDACi) sur l’expression de MPT d’histone ont été évalués en utilisant la méthodologie analytique mentionnée. Les histones extraites de cellules normales et cancéreuses ont été exposées à du Vorinostat(SAHA) ou du Entinostat (MS-275) pour une période de 24 à 72 heures. Deux histones furent principalement affectées, soit H3 et H4. Étonnamment, les mêmes effets n'ont pas été détectés lorsque les cellules normales ont été traitées avec le HDACi pour une période de 48 à 72 heures. Une méthode absolue de quantification avec une courbe d’étalonnage a été développée pour le peptide H3K56ac. Contrairement à certaines publications, nos résultats démontrent que cette MPT est présente dans les cellules mammifères avec une stoechiométrie très basse (< 0,1%) et n'est pas surexprimée de façon significative après le traitement au HDACi.