235 resultados para Prognóstico baseado em dados
Resumo:
Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
Dentro de um contexto de mercado cada vez mais disputado e concorrencial, as empresas buscam ampliar sua competitividade e garantir sua sobrevivência através da definição de boas estratégias. No entanto, mais importante que a qualidade em si das estratégias estabelecidas está à capacidade de implementá-las. O presente trabalho apresenta uma proposta de modelo de gestão, utilizando como ferramentas o Balanced Scorecard e o gerenciamento de processos, com a finalidade principal de desdobramento e implementação das estratégias pela estrutura organizacional, através do alinhamento dos objetivos estratégicos com os processos críticos da organização. A metodologia utilizada apresenta características de estudo de caso, uma vez que aplica uma pesquisa exploratória em uma grande empresa do ramo de refino de petróleo. A revisão bibliográfica elaborada nesta dissertação trata dos conceitos fundamentais do Balanced Scorecard e do gerenciamento de processos, os quais fornecem a base teórica para o desenvolvimento do trabalho. Como resultado final, a partir de informações obtidas através de pesquisas realizadas na referida empresa, propõe-se um método de gestão constituído por onze etapas. Este método foi aplicado para um dos processos da empresa, visando exemplificar a sua utilização. Como conclusão, observou-se que a utilização do método demonstrou permitir alinhar as estratégias da organização com as ações práticas realizadas pela estrutura funcional, explicitando sua contribuição na obtenção dos resultados desejados para seus processos críticos.
Resumo:
O aumento da escala e funcionalidade dos sistemas de computação e sua crescente complexidade envolvem um aumento significante de custos e exigem recursos humanos altamente qualificados para o desenvolvimento de software. Integrando-se o uso de métodos formais ao desenvolvimento de sistemas complexos, permite-se realizar análises e verificações destes sistemas, garantindo assim sua correção. Existem diversos formalismos que permitem descrever sistemas, cada qual com diferentes níveis de abstração. Quando consideramos sistemas complexos, surge a necessidade de um modelo que forneça construções abstratas que facilitem o entendimento e a especificação destes sistemas. Um modelo baseado em objetos fornece um nível de abstração que tem sido muito aplicado na prática, onde os dados e os processos que os manipulam são descritos juntos em um objeto. Gramática de Grafos Baseada em Objetos (GGBO) é um modelo baseado em objetos, que além de ser uma linguagem visual, apresenta a vantagem de as especificações adquirirem um estilo baseado em objetos, que é bastante familiar à maioria dos desenvolvedores. Porém, as GGBOs não possuem ainda ferramentas para verificação automática de propriedades desejadas nos sistemas modelados. Uma alternativa para resolver isso é definir uma tradução (que preserve a semântica) desta linguagem para outra, para a qual existam verificadores automáticos. Um formalismo bastante conhecido e estabelecido para descrição de sistemas concorrentes, para o qual existem verificadores automáticos, é o cálculo-π. Porém, sob o aspecto de especificação de sistemas complexos, GGBOs parecem ser mais adequadas como linguagem de especificação que o cálculo-π, pois são visuais, mais intuitivas e possuem um estilo baseado em objetos. Neste trabalho foi definido um formalismo (baseado nas GGBOs), denominado Gramática de Hipergrafos Baseada em Objetos e uma tradução deste formalismo para o cálculo-π, aliando assim as vantagens desses dois métodos. Além disso, para validar a tradução definida, foram feitas provas de que a semântica das gramáticas de hipergrafos baseadas em objetos é preservada na tradução.
Resumo:
O trabalho contempla a interpretação e quantificação das relações entre a alocação da demanda e da oferta de equipamentos de ensino em um sistema local, instrumentado a partir de modelo de oportunidade espacial. Avalia o desempenho de equipamentos escolares baseado na descrição detalhada da configuração espacial e abordagem probabilística para a escolha do usuário em potencial. Constitui objetivo principal medir o desempenho de equipamentos escolares, considerando a configuração espacial urbana, a demanda qualificada representada pelos diversos usuários em potencial e a distribuição dos equipamentos na cidade, verificando a possibilidade teórica de avaliar a qualidade do serviço em função de sua localização, utilizando como variáveis a acessibilidade, a eficiência e equidade espacial. Neste sentido, o método adotado compreende a introdução de variáveis físicas, sociais e econômicas associadas a modelos configuracionais para análise entre as diferentes medidas, adaptado a partir do conceito de oportunidade espacial. Utiliza a medida de Convergência Espacial, definida como uma particularidade do conceito de Centralidade Espacial Os resultados esperados, tendo em vista os propósitos da pesquisa, deverão conduzir a verificação das seguintes hipóteses: a) Do ponto de vista do sistema educacional e habitacional existente, a avaliação do desempenho do sistema escolar pode ser obtida considerando uma combinação de variáveis locais (tipo de demanda e tipo/tamanho de oferta de escolas) e variáveis globais (posição relativa no espaço); b) Do ponto de vista das políticas públicas, a avaliação de impactos de novos equipamentos/serviços de educação pode ser simulada através da medida de Convergência Urbana, desta vez considerando localizações prováveis; A utilização dos modelos propostos neste estudo resultaria da manipulação de variáveis de oferta de serviços de ensino através da computação e associação de dados para cada caso em particular obter-se-ia atributo ao qual estariam relacionadas a eficiência do equipamento, além dos fatores de tamanho, tipo e localização e de variáveis de demanda. Apresentado como instrumento de suporte à decisão a convergência espacial dá avaliação sistemática de situações urbanas, bem como uma performance esperada de situações virtuais do ponto de vista da distribuição de facilidades urbanas em relação a áreas residenciais.
Resumo:
Resumo não disponível.
Resumo:
Esta dissertação apresenta um estudo sobre a aplicação de técnicas de previsão na arrecadação tributária. Buscou-se a aplicação das principais técnicas quantitativas de previsão a uma série temporal de arrecadação de ICMS – Imposto sobre operações relativas à circulação de mercadorias e sobre prestações de serviços de transporte interestadual, intermunicipal e de comunicação. Além disto, procurou-se estimular a discussão sobre a utilização de técnicas de previsão qualitativas como forma de melhorar a acurácia dos resultados obtidos com os modelos estatísticos de previsão. O método de trabalho proposto apresenta uma seqüência estruturada de passos para a realização da previsão de receitas tributárias. Baseado neste método de trabalho e no referencial teórico, realizou-se um estudo de caso a partir dos dados de arrecadação de ICMS no Estado do Paraná. Os modelos de previsão foram testados com séries de mais de 50 observações – consideradas mais adequadas para utilização da maioria dos modelos estatísticos – e com séries mais curtas, visando comparar o grau de acurácia de cada modelo.
Resumo:
As atividades de exploração e produção de petróleo e gás no Brasil têm se tornado mais intensas ao longo desta última década, apresentando uma tendência de avanço em direção a ambientes de maior profundidade, onde se localizam grande parte das reservas de óleo já comprovadas. Os processos de exploração e produção de petróleo e gás apresentam muitas etapas com considerável potencial gerador de impactos ao meio ambiente, entre elas, a perfuração de poços exploratórios marítimos, objeto do presente estudo. Este estudo originou-se do Projeto MAPEM – Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Profundas), do qual foram utilizados os dados analisados nesta dissertação. O monitoramento foi realizado visando avaliar os efeitos da perfuração do poço Eagle, localizado em talude continental, região norte da Bacia de Campos, Brasil, próximo ao limite entre os estados do Rio de Janeiro e Espírito Santo, a 902 metros de profundidade. Foram coletadas amostras de sedimentos superficiais na região de entorno da atividade, em 48 estações de monitoramento e 6 estações de controle, durante os cruzeiros oceanográficos realizados um mês antes, um mês após e um ano após a perfuração. As análises dos sedimentos geraram informações sobre sua composição granulométrica, mineralógica (argilominerais e carbonato de cálcio) e química (hidrocarbonetos e metais), e foram comparadas em sua variação espacial (área de monitoramento/estações de controle) e temporal (3 cruzeiros oceanográficos). A variação temporal foi abordada de três maneiras distintas, onde o Cruzeiro I representou o background da área, a variação do Cruzeiro I para o II representou o impacto sobre a área de monitoramento e na variação do Cruzeiro II para o III, buscou-se evidências de recuperação da área monitorada com tendência de retorno às suas características iniciais O background da área definiu os níveis médios de todas variáveis analisadas, identificando, além de teores naturais para alguns dos componentes dos sedimentos, sinais de contaminação de origem antrópica, principalmente de As, Pb e hidrocarbonetos petrogênicos (n-alcanos) e pirogênicos (aromáticos). Na perfuração do poço Eagle foi utilizado fluido de base aquosa (FBA) e fluido de base sintética (FBS), dos quais se buscou identificar as áreas de influência e as alterações causadas nos sedimentos. Identificou-se a ocorrência de um fluxo gravitacional de massa, no período entre o Cruzeiro I e a perfuração, restrito ao cânion submarino que cruza a área de monitoramento, do qual também foi avaliada a influência sobre a composição dos sedimentos. A influência do FBA (indicada pelos teores de bário) estendeu-se por uma grande área, apresentando maiores concentrações nas estações próximas do poço. A área de influência do FBS (indicada pelos n-alcanos entre C14 e C22) apresentou distribuição mais restrita, em duas manchas, uma a norte e outra a oeste do poço. Além dos n-alcanos, foi identificado aumento dos teores de bário, UCM (mistura complexa não resolvida), fluoreno e acenaftaleno. O fluxo gravitacional de massa causou elevações na proporção de areia das estações do cânion submarino e redução do carbono orgânico. Efetivamente pode se concluir que a atividade de perfuração exerceu influência significativa nas propriedades químicas dos sedimentos, contudo, de improvável efeito tóxico sobre a biota. Pode-se concluir também que ocorreu recuperação da área, após o período de um ano, por redução das concentrações médias de algumas variáveis e sinais de reposição de n-alcanos naturais, porém não foi possível a identificação de degradação do material sintético utilizado no FBS.
Resumo:
Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Desenvolvimento sustentável é uma forma para a constituição de uma sociedade mais próspera e mais justa. E ela deve ser capaz de propiciar um ambiente limpo, mais seguro e saudável, favorável a uma melhoria de qualidade de vida para todos. Deve atender às necessidades do presente sem comprometer a possibilidade de as gerações futuras atenderem às suas próprias necessidades. A gestão ambiental pública, amparada por leis e resoluções, gradativamente se estrutura para gerir as questões do meio ambiente, na busca de uma melhor qualidade de vida e de um desenvolvimento sustentável. No Brasil, as condições de governabilidade dos municípios se ampliaram, quando estes passaram a poder elaborar suas próprias Leis Orgânicas, a legislar sobre os assuntos de interesse local, a instituir, a arrecadar e a aplicar tributos de sua competência. Quanto ao tema do saneamento, as carências de infra-estrutura básica são reconhecidamente responsáveis pela deterioração do meio ambiente e da qualidade de vida dos habitantes dos centros urbanos. Baseado em indicadores de desenvolvimento que apontam para a deficiência em atendimento no saneamento básico, e considerando que estes problemas existem nos níveis nacional, estadual e regional, foi realizada uma análise da gestão ambiental pública em municípios do Vale do Taquari – RS Nesta região, foram selecionados os dez maiores municípios, segundo o seu produto interno bruto, com o objetivo de identificar a estrutura neles existente, a responsabilidade municipal e as ações relativas ao saneamento básico, além de propor alguns indicadores, aplicados à realidade desta região. O método utilizado foi o de um estudo exploratório baseado em entrevistas semi-estruturadas e em dados bibliográficos, realizados no final da Gestão 2001/2004 e no início da Gestão 2005/2008. Os resultados apresentados indicam que a gestão do saneamento básico em municípios melhor estruturados é mais eficiente. A questão do esgoto sanitário apresenta os indicadores com os menores percentuais em serviços de atendimento a domicílios. No entanto, na maioria dos municípios investigados, as ações relativas à gestão dos resíduos sólidos são mais efetivas do que as relacionadas ao esgoto sanitário. Os indicadores propostos, juntamente com os demais indicadores divulgados para os municípios, permitem um melhor conhecimento da situação local, e permitem também a comparação entre os municípios e entre as suas gestões municipais.
Resumo:
Vários métodos analíticos, numéricos e híbridos podem ser utilizados na solução de problemas de difusão e difusão-advecção. O objetivo deste trabalho é apresentar dois métodos analíticos para obtenção de soluções em forma fechada da equação advectivo-difusiva em coordenadas cartesianas que descreve problemas de dispersão de poluentes na água e na atmosfera. Um deles é baseado em regras de manipulação de exponenciais de operadores diferenciais, e o outro consiste na aplicação de simetrias de Lie admitidas por uma equação diferencial parcial linear. Desenvolvem-se regras para manipulação de exponenciais de operadores diferenciais de segunda ordem com coeficientes constantes e para operadores advectivo-difusivos. Nos casos em que essas regras não podem ser aplicadas utiliza-se uma formulação para a obtenção de simetrias de Lie, admitidas por uma equação diferencial, via mapeamento. Define-se um operador diferencial com a propriedade de transformar soluções analíticas de uma dada equação diferencial em novas soluções analíticas da mesma equação. Nas aplicações referentes à dispersão de poluentes na água, resolve-se a equação advectivo-difusiva bidimensional com coeficientes variáveis, realizando uma mudança de variáveis de modo a reescrevê-la em termos do potencial velocidade e da função corrente correspondentes ao respectivo escoamento potencial, estendendo a solução para domínios de contornos arbitrários Na aplicação referente ao problema de dispersão de poluentes na atmosfera, realiza-se uma mudança de variáveis de modo a obter uma equação diferencial parcial com coeficientes constantes na qual se possam aplicar as regras de manipulação de exponenciais de operadores diferenciais. Os resultados numéricos obtidos são comparados com dados disponíveis na literatura. Diversas vantagens da aplicação das formulações apresentadas podem ser citadas, a saber, o aumento da velocidade de processamento, permitindo a obtenção de solução em tempo real; a redução da quantidade de memória requerida na realização de operações necessárias para a obtenção da solução analítica; a possibilidade de dispensar a discretização do domínio em algumas situações.
Resumo:
A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.
Resumo:
Glioblastomas são a forma mais comum de tumores cerebrais primários e, apesar do tratamento, os pacientes com estes tumores têm um prognóstico muito ruim. Os nucleotídeos da adenina (ATP, ADP e AMP) e também a adenosina possuem muitas funções importantes em condições fisiológicas e patológicas em vários organismos. O ATP é uma importante molécula sinalizadora no SNC, e os nucleotídeos e nucleosídeos podem induzir a proliferação de linhagens celulares de gliomas. Na invasão dos gliomas dois mecanismos podem liberar ATP: a morte excitotóxica do tecido adjacente e a lesão causada pela ressecção do tumor, que é o tratamento de primeira linha nestes casos. Neste estudo foram observados os efeitos do ATP extracelular na citotoxicidade em linhagens celulares de glioma humano U138 e na linhagem C6 de ratos, comparado com culturas organotícias de hipocampo. A citotoxicidade do ATP (0.1mM, 0.5mM, 5mM) foi medida usando os ensaios de incorporação de iodeto de propídeo e ensaio da lactato desidrogenase. O ensaio de caspases foi realizado para identificar à morte apoptótica. Os resultados mostraram que as células de gliomas apresentam resistência a morte induzida pelo ATP quando comparados com o tecido normal. Altas concentrações de ATP (5mM) induziram à morte celular após 24 h de tratamento em culturas organotípicas, mas não nas linhagens de gliomas estudados. Os nucleotídeos são hidrolisados muito lentamente pelas linhagens de gliomas, o que foi confirmado pela baixa expressão das enzimas NTPDases quando comparado com astrócitos. Portanto, para testar o papel do ATP extracelular no mecanismo de implante e crescimento dos gliomas, um milhão destas células de gliomas foram injetadas em 3µl de DMEM no estriado direito de ratos Wistar, e foi testada a co-injeção da enzima apirase no tratamento dos gliomas implantados. Após 20 dias, os ratos foram mortos e o cérebro foi seccionado e corado com hematoxilina e eosina. Nossos resultados mostraram que os ratos que sofreram co-injeção de apirase tiveram uma redução significativa no tamanho do tumor e menor índice mitótico (p<0,05), bem como menor imunodetecção para Ki67, VEGF e CD31 quando comparado com os grupos controle e controle apirase. A medida da hidrólise enzimática dos nucleotídeos no soro pode contribuir no diagnóstico de lesão celular em muitas condições patológicas. Com o objetivo de avaliar a atividade enzimática da ATPase, ADPase e AMPase in vivo, amostras de soro foram coletadas vinte dias após o implante dos gliomas em ratos. Os ratos com indução de gliomas mostraram um aumento significativo na hidrólise de ATP, ADP e AMP quando comparado com os respectivos controles. O tratamento com o fármaco temozolomida e com 10% dimetil sulfoxida diminuiu a hidrólise dos nucleotídeos. Nenhum dos animais incluídos neste trabalho apresentaram alterações significativas na atividade das enzimas alanina aminotransferase, aspartato aminotransferase e fosfatase alcalina. Nossos dados indicam que o ATP pode ter uma função importante no crescimento do glioma, pois quando liberado pode induzir a morte celular do tecido normal ao redor do tumor, abrindo espaço para o rápido crescimento e invasão do tumor. As avaliações da hidrólise dos nucleotídeos da adenina no soro podem ajudar no acompanhamento da progressão dos tumores cerebrais.