341 resultados para Falsos cognados
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
Este trabalho foi realizado com o intuito de estudar as plantas utilizadas como medicinais pelos moradores do bairro Ponta Grossa e pelos Agentes Comunitários de Saúde relacionados ao Posto de Saúde da Família do bairro Ponta Grossa, Porto Alegre, Rio Grande do Sul. Como metodologia, foram realizadas entrevistas estruturadas, na forma de questionários, para obtenção dos dados socioculturais e semi-estruturadas para o levantamento dos dados sobre as plantas. Foram coletadas 150 espécies utilizadas pela população, sendo 9 delas identificadas somente até gênero, pertencentes a 59 famílias botânicas. As famílias mais representadas em número de espécies foram Asteraceae e Lamiaceae. As partes das plantas mais utilizadas foram folhas e partes aéreas, sendo o chá a principal forma de utilização. As doenças e/ou sintomas mais mencionados foram os relacionados aos aparelhos digestório e respiratório. Em uma análise dos nomes populares foram encontradas 56 espécies com etnohomônimos e 73 espécies com etno-sinônimos verdadeiros ou falsos. Também foi realizada uma revisão bibliográfica comparativa entre as indicações de uso originais e as indicações atuais referidas no estado do Rio Grande do Sul e países limítrofes. Esta revisão teve como objetivo verificar se houve alterações do conhecimento popular. Uma espécie apresentou equivalência entre as indicações de usos originais e atuais e 140 apresentaram alteração do conhecimento popular. Para 16 espécies foi detectada alteração total do conhecimento, 61 apresentaram ampliação do conhecimento e 21 redução do conhecimento popular. Ferramentas quantitativas foram utilizadas, como Valor de Uso (UV) e a porcentagem de Concordância corrigida quanto aos Usos Principais (CUPc), para verificar quais as espécies mais importantes para a população e as mais promissoras para a realização de estudos biológicos posteriores. Para as 21 espécies mais importantes foram feitas revisões na literatura científica com o objetivo de reunir dados químicos e biológicos, que resultarão na elaboração de um manual didático, o qual será devolvido como um retorno para a população estudada.
Resumo:
Para avaliar associação entre infarto do miocárdio e a presença no eletrocardiograma de extra-sístoles supraventriculares ou ventriculares com morfologia QR, foi realizado um estudo de caso-controle aninhado em um estudo transversal. No período de janeiro de 2000 a maio de 2004 foram realizados 6244 exames de cateterismo cardíaco na Unidade de Hemodinâmica do Serviço de Cardiologia do Hospital de Clínicas de Porto Alegre. Deste grupo foram selecionados 35 pacientes com infarto do miocárdio (IM) e 11 sem IM, sendo que destes 46 pacientes 33 já apresentavam extra-sístoles espontaneamente e os outros 13 tiveram suas extra-sístoles obtidas em estimulação elétrica programada. Deste modo, nosso estudo constitui-se 35 casos de IM com extra-sistoles espontâneas ou provocadas e 11 controles sem IM. Com extra-sistolia (espontânea ou provocada). Os traçados eletrocardiográficos foram estudados, e observaram-se, quais os pacientes que apresentaram nas extra-sístoles morfologia tipo QR (QRS, QRs, Qrs) com duração maior ou igual a 0,04 segundos, considerando-se este sinal como positivo para IM. A utilização do eletrocardiograma em ritmo sinusal para o diagnóstico de IM em nosso estudo levou a uma estimativa de sensibilidade em torno de 86% e uma especificidade de 91%.Como conseqüência direta destes achados, temos que do ponto de vista do eletrocardiograma em ritmo sinusal havia 31 pacientes supostamente com IM e 15 livres do desfecho. Não obstante, dos 31 supostos pacientes com IM, 30 eram verdadeiros positivos e 1 falso negativo. Por outro lado, dos 15 pacientes supostamente sem IM, havia 5 falsos negativos e 10 verdadeiramente negativos. Tomando o grupo de pacientes supostamente livres de IM, como foco de ação corretiva para diagnóstico do ECG em ritmo sinusal, tem-se a necessidade de reverter uma taxa de falsos negativos de 14% Aplicando-se os critérios diagnósticos de IM no ECG obtido em extra-sístoles verifica-se que, apesar de ocorrer uma queda na especificidade, temos uma estimativa de sensibilidade em torno de 100%. Assim, a utilização combinada do ECG em extra-sístoles seguindo o ECG em ritmo sinusal promove a redução da taxa de falsos negativos de 14% para 0% enquanto que enquanto que a proporção de falsos positivos ficou em torno de 27%. Desta forma, a análise da morfologia das extra-sístoles supraventriculares e ventriculares podem ser de utilidade no diagnóstico de IM quando a morfologia dos batimentos sinusais é não diagnostica
Resumo:
Esta e uma dissertação sobre as Secretarias Estaduais de Educação~ õrgaos responsáveis pela administração dos sistemas de ensino no âmbito dos respectivos Estados da Federação. A síntese de diagnósticos feitos em quatro décadas (a partir dos anos 40) sobre a organização dos serv~ços de educação no país e, particularmente, sobre a estrutura administrativa das Secretarias de Educação, constantes da primeira parte do trabalho (Capítulos I e 2) demonstra que, através dos tempos, a busca de um modelo de organização administrntiva ideal via "reestrutura- ções"~ "reorganizações","modernizações" etc. não pode ser efetiva mente considerada um problema. É, sim, um dos inúmeros falsos pr~ blemas em que se envolve a administração educacional (e, por extensao a administraçio pública) se ela se limita i procura de uma solução ã base de novos organogramas e da montagem de "sistemas" e de '/rllcionalização" do processo tecnico-administrativo, minimizando ou, mesmo, desconsiderando as outras dimensões (culturais, políticas, econ5micas, etc.) que envolvem a administração dos S1S temas educacionais. No Capítulo 3, tenta-se identificar, a partir de aspectos conceituais sobre sistemas de ensino (que é um sistema de ensino?), aqueles outros aspectos de ordem funcional e operacional que pod~ r~am levar i compreensão de alguns dos verdadeiros problemas enfrentados pelas Secretarias de Educação: o modo como se processam as relações intergovernamentais; os quadros de recursos humanos que atuam naquelas Secretariàs; e o relacionamento da administra- çio central da educação com as escolas do sistema estadual de cns1no. Todos estes componen~es voltam, no capítulo final, a ser focalizados no seu conjunto, tendo em vista, especialmente, a articulação que ocorre entre a esfera técnica, o nível político e a burocracia, elementos essenciais a serem considerados para o planejamento e a implantação dos "modelos" de organização administra tiva das Secretarias de Educação.
Resumo:
Criptococose é uma levedurose que acomete o homem e vários animais, podendo ocorrer em indivíduos imunocompetentes, mas freqüentemente está associada a um estado de comprometimento imunológico. Atualmente a etiologia desta micose é atribuída a três espécies: Cryptococcus neoformans, C. grubii (isolados no solo rico em fezes de pombos), e C. gattii (isolado nos eucaliptos). A via mais freqüente de contaminação é a inalatória, com posterior colonização do trato respiratório superior, podendo atingir aos alvéolos e desenvolver a sintomatologia respiratória, ou ocorrer disseminação hematógena com possível comprometimento do Sistema Nervoso Central. É notável o aumento na procura de animais de companhia nos grandes centros urbanos e, também, se verifica uma significativa população de pombos nas cidades, alojados em igrejas, prédios, parques e praças. A exposição dos cães a locais possivelmente contaminados e a saúde destes animais constituise uma preocupação e, visto que existem relatos na literatura, ainda que poucos, sobre a criptococose em cães, realizamos uma pesquisa sobre a presença da levedura nesta espécie. Este trabalho teve como objetivo verificar a ocorrência do Cryptococcus em cães com sintomatologia respiratória e/ou neurológica, atendidos no Hospital de Clínicas Veterinárias da Universidade Federal do Rio Grande do Sul (UFRGS), localizado na cidade de Porto Alegre, Brasil. A amostragem foi composta por 112 cães. Realizou-se o exame direto, com nigrosina, do líquido cefalorraquidiano (n=17); o cultivo da secreção nasal (112), do sangue total (112) e do líquido cefalorraquidiano (n=17) em ágar níger (Guizotia abissynica), com incubação a 370C durante dez dias; e o teste de aglutinação em látex, utilizando-se o teste Crypto-LA (Wampole), com o soro (n=112) e o líquido cefalorraquidiano (n=17) Para o teste de aglutinação em látex foi realizado, também, tratamento com Pronase em 32 (28,57%) amostras de soro e 4 (23,52%) amostras de líquido cefalorraquidiano. Os resultados do exame direto, do cultivo e do teste de aglutinação em látex foram negativos para o Cryptococcus em todas as amostras testadas. Não se excluiu a possibilidade de ter ocorrido resultados falsos negativos, por não ter sido realizado um lavado nasal para coleta de material para cultivo e, também, porque o Cryptococcus poderia estar presente em pequenas quantidades no organismo e/ou ser pouco capsulado e, portanto, não sendo detectado através do teste de aglutinação em látex. Apesar dos resultados desta amostragem, é plausível a suposição que deva existir a ocorrência da infecção pelo Cryptococcus, embora haja a falta de uma suspeita clínica desta enfermidade, posto que, na região de abrangência do estudo existe uma população canina constantemente exposta ao risco por coabitarem com uma grande população de pombos.
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
A resistência a múltiplos fármacos é um grande problema na terapia anti-cancerígena, sendo a glicoproteína-P (P-gp) uma das responsáveis por esta resistência. A realização deste trabalho incidiu principalmente no desenvolvimento de modelos matemáticos/estatísticos e “químicos”. Para os modelos matemáticos/estatísticos utilizamos métodos de Machine Learning como o Support Vector Machine (SVM) e o Random Forest, (RF) em relação aos modelos químicos utilizou-se farmacóforos. Os métodos acima mencionados foram aplicados a diversas proteínas P-gp, p53 e complexo p53-MDM2, utilizando duas famílias: as pifitrinas para a p53 e flavonóides para P-gp e, em menor medida, um grupo diversificado de moléculas de diversas famílias químicas. Nos modelos obtidos pelo SVM quando aplicados à P-gp e à família dos flavonóides, obtivemos bons valores através do kernel Radial Basis Function (RBF), com precisão de conjunto de treino de 94% e especificidade de 96%. Quanto ao conjunto de teste com previsão de 70% e especificidade de 67%, sendo que o número de falsos negativos foi o mais baixo comparativamente aos restantes kernels. Aplicando o RF à família dos flavonóides verificou-se que o conjunto de treino apresenta 86% de precisão e uma especificidade de 90%, quanto ao conjunto de teste obtivemos uma previsão de 70% e uma especificidade de 60%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Repetindo o procedimento anterior (RF) e utilizando um total de 63 descritores, os resultados apresentaram valores inferiores obtendo-se para o conjunto de treino 79% de precisão e 82% de especificidade. Aplicando o modelo ao conjunto de teste obteve-se 70% de previsão e 60% de especificidade. Comparando os dois métodos, escolhemos o método SVM com o kernel RBF como modelo que nos garante os melhores resultados de classificação. Aplicamos o método SVM à P-gp e a um conjunto de moléculas não flavonóides que são transportados pela P-gp, obteve-se bons valores através do kernel RBF, com precisão de conjunto de treino de 95% e especificidade de 93%. Quanto ao conjunto de teste, obtivemos uma previsão de 70% e uma especificidade de 69%, existindo a particularidade de o número de falsos negativos ser o mais baixo. Aplicou-se o método do farmacóforo a três alvos, sendo estes, um conjunto de inibidores flavonóides e de substratos não flavonóides para a P-gp, um grupo de piftrinas para a p53 e um conjunto diversificado de estruturas para a ligação da p53-MDM2. Em cada um dos quatro modelos de farmacóforos obtidos identificou-se três características, sendo que as características referentes ao anel aromático e ao dador de ligações de hidrogénio estão presentes em todos os modelos obtidos. Realizando o rastreio em diversas bases de dados utilizando os modelos, obtivemos hits com uma grande diversidade estrutural.
Resumo:
A Clorose Variegada dos Citros (CVC), causada pela bactéria Xylella fastidiosa, é atualmente uma das doenças que mais afeta a citricultura brasileira, sendo as variedades de laranja-doce as mais afetadas. Ensaio instalado na Estação Experimental de Bebedouro (EECB), em condições de estufa, teve como objetivo avaliar o comportamento em relação à CVC de germoplasma de citros introduzidos pela EECB, Fundecitrus e Cenargen. Os materiais foram multiplicados sobre diversos porta-enxertos e, quando atingiram o tamanho adequado, inoculados por garfagem lateral de ramo doente. Cada variedade constou de quatro plantas, três das quais foram inoculadas, e a outra sem inocular deixada como padrão. As avaliações consistiram na observação de sintomas, teste de ELISA e PCR. Os primeiros sintomas nos materiais contaminados começaram a surgir 7 meses após a inoculação. Encontraram-se 18 variedades positivas no teste de PCR, o que indica sua suscetibilidade à bactéria Xylella fastidiosa. Entretanto, as variedades que foram detectadas pelo teste ELISA e não pelo PCR não foram contadas como suscetíveis e, sim, como falsos positivos.
Resumo:
The use of the maps obtained from remote sensing orbital images submitted to digital processing became fundamental to optimize conservation and monitoring actions of the coral reefs. However, the accuracy reached in the mapping of submerged areas is limited by variation of the water column that degrades the signal received by the orbital sensor and introduces errors in the final result of the classification. The limited capacity of the traditional methods based on conventional statistical techniques to solve the problems related to the inter-classes took the search of alternative strategies in the area of the Computational Intelligence. In this work an ensemble classifiers was built based on the combination of Support Vector Machines and Minimum Distance Classifier with the objective of classifying remotely sensed images of coral reefs ecosystem. The system is composed by three stages, through which the progressive refinement of the classification process happens. The patterns that received an ambiguous classification in a certain stage of the process were revalued in the subsequent stage. The prediction non ambiguous for all the data happened through the reduction or elimination of the false positive. The images were classified into five bottom-types: deep water; under-water corals; inter-tidal corals; algal and sandy bottom. The highest overall accuracy (89%) was obtained from SVM with polynomial kernel. The accuracy of the classified image was compared through the use of error matrix to the results obtained by the application of other classification methods based on a single classifier (neural network and the k-means algorithm). In the final, the comparison of results achieved demonstrated the potential of the ensemble classifiers as a tool of classification of images from submerged areas subject to the noise caused by atmospheric effects and the water column
Resumo:
The total number of prokaryotic cells on Earth has been estimated at 4 to 6x1030 and only about 1% of microorganisms present in the environment can be cultivated by standard techniques of cultivation and plating. Therefore, it is a huge biological and genetic pool that can be exploited, for the identification and characterization of genes with biotechnological potential. Within this perspective, the metagenomics approach was applied in this work. Functional screening methods were performed aiming to identify new genes related to DNA repair and / or oxidative stress resistance, hydrocarbon degradation and hydrolytic activities (lipase, amylase and protease). Metagenomic libraries were built utilizing DNA extracted from soil samples collected in João Câmara RN. The libraries were analyzed functionally using specific substrate containing solid medium (hydrolytic activity), supplemented with H2O2 (DNA repair and / or resistance to oxidative stress) and liquid medium supplemented with light Arabian oil (activity, degradation of hydrocarbons). After confirmation of activity and exclusion of false-positive results, 49 clones were obtained, being 2 positive for amylase activity, 22 resistant to oxidative stress generated by H2O2 and 25 clones active for hydrocarbons degradation. Analysis of the sequences showed hypothetical proteins, dienelactona hydrolase, DNA polymerase, acetyltransferase, phosphotransferase, methyltransferase, endonucleases, among other proteins. The sequence data obtained matched with the functions tested, highlighting the success of metagenomics approaches combined with functional screening methods, leading to very promising results
Resumo:
Epilepsies are neurological disorders characterized by recurrent and spontaneous seizures due to an abnormal electric activity in a brain network. The mesial temporal lobe epilepsy (MTLE) is the most prevalent type of epilepsy in adulthood, and it occurs frequently in association with hippocampal sclerosis. Unfortunately, not all patients benefit from pharmacological treatment (drug-resistant patients), and therefore become candidates for surgery, a procedure of high complexity and cost. Nowadays, the most common surgery is the anterior temporal lobectomy with selective amygdalohippocampectomy, a procedure standardized by anatomical markers. However, part of patients still present seizure after the procedure. Then, to increase the efficiency of this kind of procedure, it is fundamental to know the epileptic human brain in order to create new tools for auxiliary an individualized surgery procedure. The aim of this work was to identify and quantify the occurrence of epilepticform activity -such as interictal spikes (IS) and high frequency oscillations (HFO) - in electrocorticographic (ECoG) signals acutely recorded during the surgery procedure in drug-resistant patients with MTLE. The ECoG recording (32 channels at sample rate of 1 kHz) was performed in the surface of temporal lobe in three moments: without any cortical resection, after anterior temporal lobectomy and after amygdalohippocampectomy (mean duration of each record: 10 min; N = 17 patients; ethic approval #1038/03 in Research Ethic Committee of Federal University of São Paulo). The occurrence of IS and HFO was quantified automatically by MATLAB routines and validated manually. The events rate (number of events/channels) in each recording time was correlated with seizure control outcome. In 8 hours and 40 minutes of record, we identified 36,858 IS and 1.756 HFO. We observed that seizure-free outcome patients had more HFO rate before the resection than non-seizure free, however do not differentiate in relation of frequency, morphology and distribution of IS. The HFO rate in the first record was better than IS rate on prediction of seizure-free patients (IS: AUC = 57%, Sens = 70%, Spec = 71% vs HFO: AUC = 77%, Sens = 100%, Spec = 70%). We observed the same for the difference of the rate of pre and post-resection (IS: AUC = 54%, Sens = 60%, Spec = 71%; vs HFO: AUC = 84%, Sens = 100%, Spec = 80%). In this case, the algorithm identifies all seizure-free patients (N = 7) with two false positives. To conclude, we observed that the IS and HFO can be found in intra-operative ECoG record, despite the anesthesia and the short time of record. The possibility to classify the patients before any cortical resection suggest that ECoG can be important to decide the use of adjuvant pharmacological treatment or to change for tailored resection procedure. The mechanism responsible for this effect is still unknown, thus more studies are necessary to clarify the processes related to it
Resumo:
Highly emotional itens are best remembered in emotional memory tasks than neutral items. An example of emotional item that benefits declarative memory processes are the taboo words. These words undergo from a conventional prohibition, imposed by tradition or custom. Literature suggests that the strongest recollection these words is due to emotional arousal, as well as, the fact that they form a cohesive semantic group, which is a positive additive effect. However, studies with semantic lists show that cohesion can have a negative effect of interference, impairing memory. We analyzed, in two experiments, the effect of arousal and semantic cohesion of taboo words on recognition tests, comparing with into two other word categories: semantically related and without emotional arousal (semantic category) and neutral, with low semantic relation (objects). Our results indicate that cohesion has interfered whith the performance of the test by increasing the number of false alarms. This effect was strongly observed in the semantic category of words in both experiments, but also in the neutral and taboo words, when both were explicitly considered as semantic categories through the instruction of the test in Experiment 2. Despite the impairment induced by semantic cohesion in both experiments, the taboo words were more discriminated than others, and this result agrees with the indication of the emotional arousal as the main factor for the best recollection of emotional items in memory tests
Resumo:
The epidemiology of temporomandibular disorders varies widely in the literature. The aim of this study was to determine the prevalence of TMD in dental students of the Federal University of Rio Grande do Norte assessed by different indexes. The sample consisted of 101 individuals selected by a randomized process, whose general outline was systematic sampling. For evaluation of the signs and symptoms of TMD, an anamnestic index, Fonseca s protocol, and two clinical indexes, the RDC/TMD (Research Diagnostic Criteria for Temporomandibular Disorders), or standard index, and the Helkimo s Clinical Dysfunction Index were applied. Data were analyzed using the chi-square test and kappa, besides verifying the sensitivity and specificity (5% significance). The diagnosis of TMD by different indexes showed a variation in the prevalence between 72.3% (Helkimo s Clinical index), 64.4% (Fonseca s anamnestic index) and 35.6% (RDC/TMD). There was no statistical difference between the sexes for the RDC/TMD, although this difference was found for Fonseca s and Helkimo s indexes (p<0.05). The most frequent type of TMD were joint disorders (Groups II and III), and the subtypes disc displacement with reduction (17.8%) and arthralgia (15.8%). Most individuals showed a mild TMD (45.5%) for both indexes, Fonseca and Helkimo. When comparing the types of diagnoses, RDC/TMD with Fonseca and Helkimo, low agreement was found (k=0.17 and k= 0.35, respectively). A moderate correlation between the severity of TMD was obtained (kw= 0.53) for Fonseca s protocol and Helkimo s index. High sensitivity and low specificity were seen for both diagnoses compared to standard, resulting in excessive false positives. Within the limitations of the study, it was concluded that the prevalence of TMD can vary widely, depending on the index used for its diagnosis