959 resultados para Nível de emprego formal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Teoria da Mente é uma área de estudo que investiga a compreensão da mente pelas crianças pequenas. Uma das questões centrais nesta investigação refere-se a quando a criança começa a entender a mente em sua dimensão metarrepresentativa. Neste estudo, examinou-se o status metarrepresentativo da brincadeira de faz-de-conta, considerada como uma das atividades que indicam a presença de uma teoria da mente, e a sua relação com o nível representativo apresentado nas tarefas de crença falsa e de aparência-realidade, e no emprego de termos mentais. Os dados foram obtidos através de testagem, entrevista e de uma sessão de observação, em que cada um dos sete participantes, com seis anos de idade, foi observado por vinte minutos. As crianças foram filmadas interagindo com colegas e brinquedos e suas falas gravadas, utilizando-se um microfone de lapela. Os resultados mostraram que todas as crianças do estudo resolveram as tarefas de crença falsa e de aparência-realidade, indicando a presença de uma teoria da mente e da capacidade de metarrepresentação. Quanto à brincadeira de faz-de-conta, houve predomínio de episódios categorisados como de brinquedo não-metarrepresentativo, apesar de seis crianças apresentarem episódios de faz-de-conta metarrepresentativo. Quanto ao uso de termos mentais, cinco crianças, em suas conversações, empregaram termos mentais considerados metarrepresentativos. Apesar das crianças apresentarem episódios de faz-de-conta metarrepresentativo, de resolverem corretamente as tarefas e de empregarem termos mentais que requerem metarrepresentação para serem compreendidos, não parece haver uma relação linear entre esses indicadores. Os resultados confirmam a hipótese de alguns autores de que a brincadeira de faz-de-conta metarrepresentativa ocorre mais tardiamente no desenvolvimento, estando estreitamente relacionada à compreensão da sintaxe do termo mental fazer de conta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo apresenta os resultados de tratamento em 83 pacientes com Idade entre 2–10 anos, que apresentaram otite média secretora com efusão, bilateral ou unilateral, acompanhada ou não de hipertrofia de adenóides e cornetos, no Hospital Universitário São Francisco de Paula da Universidade Católica de Pelotas – UCPel, no período de julho de 1997 a julho de 1999. Os pacientes foram submetidos a timpanocentese com uso do Microcautério por Rádio-freqüência (modelo Lavinsky – HCPA), uni ou bilateralmente. Na avaliação periódica de 15 dias, um mês e três meses, observamos dois pontos principais: a) a cura dos pacientes (que apresentaram membrana e caixa timpânica normais); b) a relação com a literatura em trabalhos semelhantes com uso do Laser CO2. Relatamos também a incidência em percentuais, com identificação das alterações de imagem da membrana timpânica nestes três períodos cronológicos, e na distribuição conforme cor, sexo e idade, uni/bilateralidade e simultaneidade na presença das duas afecções relatadas. Na avaliação final, percebemos 80,5% de cura da patologia. Na comparação com a literatura existente sobre o uso de Laser CO2, os nossos resultados mostraram-se homogêneos. O tempo de oclusão da membrana timpânica foi de 2,73 meses (desvio – padrão = 1,39 meses), normalizando a secreção da caixa timpânica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A infecção por Helicobacter pylori (Hp) é uma das infecções bacterianas mais comuns em todo o mundo. As maiores prevalências da infecção foram encontradas nos países em desenvolvimento, onde, em geral são altas já na infância. O método diagnóstico considerado mais acurado para a infecção por Hp, em crianças, é o exame endoscópico com biópsias gástricas. Alguns autores referem que o único aspecto macroscópico que pode predizer a infecção é o da presença de nodosidades na mucosa gástrica. Este aspecto é denominado de gastrite endoscópica nodular. A especificidade da gastrite endoscópica nodular para a infecção por Hp, entretanto, recentemente foi questionada por outros autores. Realizamos um estudo transversal em uma amostra de crianças (um a 12 anos) com dor abdominal crônica, que preenchiam os critérios para a realização de endoscopia digestiva alta, no Hospital da Criança Conceição e no Hospital de Clínicas de Porto Alegre, de setembro de 1997 a setembro de 1999. O objetivo principal foi verificar a associação entre a infecção por Hp e a gastrite endoscópica nodular nessas crianças. A amostra foi constituída de 185 crianças de ambos os sexos, com baixa renda familiar, cujos pais apresentavam baixo nível de escolaridade. Foi realizado estudo histológico das lâminas de biópsia gástrica (no mínimo cinco fragmentos, corados com H-E ou Giemsa), conforme o Sistema Sydney modificado. A infecção por Hp foi caracterizada pela presença de Hp na lâminas de biópsias gástricas dos pacientes e a gastrite folicular, pela presença de folículos linfóides bem formados, em mucosa gástrica inflamada. A prevalência da infecção por Hp nas crianças com dor abdominal crônica foi de 27% (IC 95%: 20,8-34,0). Foi demonstrada uma associação muito forte entre a infecção por Hp e a gastrite endoscópica nodular nessas crianças (P<0,001; RP = 29,7). Houve um aumento da prevalência tanto da infecção por Hp como da gastrite endoscópica nodular com a idade dos pacientes. A gastrite endoscópica nodular , embora tenha demostrado uma baixa sensibilidade (44,0%), apresentou um valor preditivo positivo de 91,7% para a infecção por Hp. Tanto o teste de urease, como a gastrite endoscópica nodular mostraram-se muito específicas, 94,5% e 98,5%, respectivamente, para o diagnóstico da infecção. Quando se combinou o teste de urease com o aspecto de gastrite endoscópica nodular, encontrou-se, uma sensibilidade muito baixa (34,7%), mas uma especificidade de 100% para a infecção por Hp. A sensibilidade do teste de urease, isolado, para a infecção foi de 60,4% e o seu valor preditivo positivo de 80,5%. O aspecto endoscópico (gastrite endoscópica nodular) teve associação com o microscópico (gastrite folicular) (P<0,001). Houve uma forte e significativa associação entre a infecção por Hp e a gastrite crônica ativa ( P<0,001; RP = 10,8). O mesmo foi demonstrado entre a gastrite nodular e a gastrite crônica ativa (P<0,001; RP = 8,6). Também foi verificado um nítido aumento das razões de prevalência da gastrite crônica ativa e da gastrite endoscópica nodular, com a acentuação dos graus de densidade de Hp. Finalmente, foi demonstrada a importante correlação entre o grau de intensidade da gastrite, verificado no exame histológico, e a gastrite endoscópica nodular (r = 0,97; P<0,001). A prevalência da infecção por Hp encontrada em Porto Alegre, nas crianças, foi menor do que a de outras cidades brasileiras e similar àquela registrada em algumas cidades do primeiro mundo. A presença de nodosidade na mucosa gástrica foi a alteração, à endoscopia, mais freqüentemente verificada nas crianças com infecção por Hp. Considerando a baixa prevalência da infecção encontrada na nossa amostra, a presença de gastrite endoscópica nodular significa uma elevada probabilidade de infecção por Hp, dado o alto valor preditivo verificado. O achado negativo para a gastrite endoscópica nodular, entretanto, não exclui a possibilidade da presença de infecção por Hp. Uma maior colonização bacteriana da mucosa gástrica estaria associada ao aparecimento da gastrite endoscópica nodular, já que a sua prevalência aumentou com os graus de densidade de Hp, assim como ocorreu com a gastrite crônica ativa. E quando ocorre, nas crianças, há maior probabilidade de se tratar de uma gastrite mais ativa e mais intensa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Medidas restritivas de controle de antimicrobianos têm sido propostas para controlar surtos epidêmicos de infecção por germes multirresistentes em hospitais, mas são escassas as publicações a respeito de sua eficácia. Em um estudo quaseexperimental com controles históricos, avaliou-se a efetividade de uma intervenção restritiva ao uso de antimicrobianos para controlar a emergência de germes multirresistentes em uma unidade de cuidados intensivos (UTI) de um hospital geral. Os Serviços de Controle de Infecção e Comissão de Medicamentos restringiu o uso de drogas antimicrobianas em pacientes hospitalizados na UTI a não mais que dois agentes simultaneamente, exceto em casos autorizados por aqueles serviços. A incidência de eventos clínicos e bacteriológicos foi comparada entre o ano que precedeu a intervenção e o ano que a seguiu. No total, 225 pacientes com idade igual ou maior de 15 anos , com infecção, internados na UTI por pelo menos 48 horas, foram estudados no ano precedente a intervenção e 263 no ano seguinte a ela. No ano seguinte à intervenção, um percentual menor de pacientes foi tratado simultaneamente com mais de dois antimicrobianos, mas não houve modificação no número total de antimicrobianos prescritos, na duração e no custo do tratamento. Mortalidade e tempo de internação foram similares nos dois períodos de observação. O número de culturas positivas aumentou depois da intervenção, tanto para germes Gram positivos, quanto para germes Gram negativos, principalmente devido ao aumento do número de isolados do trato respiratório. A maioria dos isolados foi Staphylococcus aureus dentre os Gram positivos e Acinetobacter sp dentre os germes Gram negativos. No ano seguinte à intervenção, a sensibilidade dos microorganismos Gram negativos para carbenicilina, ceftazidima e ceftriaxona aumentou, e para o imipenem diminuiu. A ausência de resposta dessa intervenção sobre desfechos clínicos pode ser em conseqüência da insuficiente aderência ou a sua relativa ineficácia. A melhora da sensibilidade microbiana de alguns germes, semaumento de custos ou a incidência de efeitos adversos, encoraja o uso de protocolos similares de restrição de drogas antimicrobianas para reduzir a taxa de resistência bacteriana na UTI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha dederes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O governo, para fazer frente a todos os seus inúmeros compromissos, necessita angariar recursos junto ao setor privado. Pode fazê-lo de diversas maneiras. A mais conhecida delas envolve a tributação. No entanto, para conferir o necessário caráter de compulsoriedade à arrecadação de tributos, torna-se imprescindível elaborar todo um sistema legal que venha ao encontro dos mais elevados princípios da administração pública. Uma outra forma de obtenção de recursos envolve a capacidade de contrair empréstimos que são garantidos, em sua grande maioria, pela emissão de papéis de dívida pública. Também neste caso, faz-se necessário observar ditames de ordem legal, que atuem como garantidores de direitos e deveres de todas as partes envolvidas. Pelo lado da utilização dos recursos arrecadados constatam-se, igualmente, restrições impostas pela observância de diversos dispositivos previstos em lei, que podem vir a limitar, em muito, a discricionariedade do administrador público no emprego do montante apurado. Exsurge, portanto, que, preliminarmente a qualquer estudo (referente a aspectos técnicos ou operacionais) que envolva a gestão da coisa pública, deve-se tentar compreender a função, a importância e as implicações que a estrutura legal vigente no País impõe. Explicitada essa etapa, analisam-se os aspectos técnicos e operacionais que o governo adota na administração da dívida pública. O objetivo do trabalho se delineia a partir da junção de todos esses aspectos. Sob a ótica do aplicador, o retorno dos seus investimentos em títulos públicos está sujeito a um determinado nível de tributação. O rendimento líquido obtido deverá ser de tal monta para que ele o julgue atrativo em comparação com os demais produtos de investimento do mercado. Sob a ótica do governo, a necessidade de financiamento faz com que seja oferecida uma taxa de juros que se mostre competitiva em relação às demais do mercado. A tributação incidente sobre os rendimentos dos títulos públicos (prevista em lei) pode vir a exercer, nesse ponto, uma função "amortecedora". Ao mesmo tempo em que o governo amplia o seu dispêndio ao pagar, na data de resgate, o principal e os juros pactuados, aufere, também e no mesmo momento, receita em um montante, que corresponde ao valor do tributo incidente sobre o rendimento, e que se constitui em receita derivada. Acontece que, mesmo essa receita, arrecadada pela União, está sujeita à repartição com outros entes federados, de acordo com dispositivos constitucionais, o que diminui o ganho efetivo que o Poder Central aufere com a tributação. Assim, o objetivo que se busca é o de investigar, analisar e, se possível, quantificar, as implicações (positivas e/ou negativas) que a desoneração da dívida pública poderia trazer no contexto da economia brasileira, incluídos aí, os aspectos financeiros, micro e macroeconômicos, formadores de preços, de contas nacionais (déficit/superávit primário), etc.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho procura mapear e interpretar o processo de formação de caixa decompondo e analisando as atividades que contribuem para liberar ou retirar recursos do fluxo de caixa. Procura também avançar no problema da determinação do nível ótimo de liquidez que deve ser mantido pelas empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foram examinadas as determinantes do nível de liquidez das firmas brasileiras, em um estudo de dados em painel com 295 firmas de capital aberto no período entre 1994 e 2004. Neste estudo, a liquidez foi definida como o estoque de caixa e títulos com liquidez dividido pelo total de ativos da firma. A análise empírica sugere que a liquidez das firmas brasileiras não é determinada por políticas específicas, sendo uma variável endógena, resultante das componentes do fluxo de caixa. Os principais resultados do modelo sugerem que o nível de liquidez é crescente em função do tamanho, do endividamento de curto prazo, e da lucratividade (tanto em termos de fluxo de caixa quanto lucro contábil), enquanto é decrescente em função do risco Brasil e do nível de capital de giro. A teoria do pecking order parece prevalecer nas decisões de financiamento das firmas. Alguns destes resultados, assim como a insignificância de outras variáveis testadas, contrariam as expectativas teóricas de como as firmas deveriam se comportar em relação ao nível de liquidez, com o objetivo de maximizar o valor da firma. O excedente de caixa ocorre nas grandes firmas com alta geração de caixa, e estas firmas podem estar incorrendo elevados custos de agência/expropriação, com prejuízo principalmente para os acionistas minoritários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de negociação coletiva acompanhou as profundas transformações nas relações de trabalho, ocorridas principalmente durante as décadas de 80 e 90, frente às alterações no cenário econômico mundial. No Brasil, as negociações coletivas tiveram que se adaptar as sucessivas crises internacionais, a uma conjuntura econômica negativa, a um processo de reestruturação produtiva e de flexibilização das relações de trabalho. Esses fatores afetaram significativamente os resultados obtidos no processo de negociação coletiva. Diante desse cenário, essa dissertação analisa a influência dos fatores de caráter econômico externos ao processo de negociação sobre os resultados obtidos nos acordos coletivos da indústria calçadista no Rio Grande do Sul entre 1996 e 2001. Como objetivo central, buscamos investigar e testar a influência de oito determinantes econômicas – inflação, câmbio, volume exportado, preço do calçado exportado, nível de atividade, salário mínimo, salário médio do setor e emprego – sobre duas cláusulas presentes nas convenções coletivas - piso e taxa de reajuste - que constituem o foco desse estudo, procurando verificar quais determinantes são capazes de explicar os resultados dos acordos coletivos do setor selecionado Para alcançar esse objetivo foi construído um modelo econométrico de regressão para testar e verificar as possíveis relações entre as variáveis econômicas anteriormente citadas e os dados extraídos dos acordos coletivos de cinco sindicatos da região do Vale dos Sinos. Constatamos que as variáveis diretamente ligadas ao setor exportador - câmbio, preço de exportação do calçado e nível de atividade - foram determinantes na definição do reajuste salarial, revelando o preço do calçado exportado, como o elemento de maior influência. A inflação, em nenhum momento da testagem, apareceu como um elemento capaz de influenciar a determinação dos reajustes. Quanto ao piso, a variável determinante foi o salário mínimo. Os testes comprovaram observações realizadas durante as mesas de negociação coletiva do setor calçadista, em que a argumentação, tanto de trabalhadores como dos empregadores, foi construída levando em consideração dois elementos: preço médio da exportação e o reajuste do salário mínimo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos BDI (ou seja, modelos Beliefs-Desires-Intentions models) de agentes têm sido utilizados já há algum tempo. O objetivo destes modelos é permitir a caracterização de agentes utilizando noções antropomórficas, tais como estados mentais e ações. Usualmente, estas noções e suas propriedades são formalmente definidas utilizandos formalismos lógicos que permitem aos teóricos analisar, especificar e verificar agentes racionais. No entanto, apesar de diversos sistemas já terem sido desenvolvidos baseados nestes modelos, é geralmente aceito que existe uma distância significativa entre esta lógicas BDI poderosas e sistemas reais. Este trabalho defende que a principal razão para a existência desta distância é que os formalismos lógicos utilizados para definir os modelos de agentes não possuem uma semântica operacional que os suporte. Por “semântica operacional” entende-se tanto procedimentos de prova que sejam corretos e completos em relação à semântica da lógica, bem como mecanismos que realizem os diferentes tipos de raciocínio necessários para se modelar agentes. Há, pelo menos, duas abordagens que podem ser utilizadas para superar esta limitação dos modelos BDI. Uma é estender as lógicas BDI existentes com a semântica operacional apropriada de maneira que as teorias de agentes se tornem computacionais. Isto pode ser alcançado através da definição daqueles procedimentos de prova para as lógicas usadas na definição dos estados mentais. A outra abordagem é definir os modelos BDI utilizando formalismos lógicos apropriados que sejam, ao mesmo tempo, suficientemente poderosos para representar estados mentais e que possuam procedimentos operacionais que permitam a utilizaçao da lógica como um formalismo para representação do conhecimento, ao se construir os agentes. Esta é a abordagem seguida neste trabalho. Assim, o propósito deste trabalho é apresentar um modelo BDI que, além de ser um modelo formal de agente, seja também adequado para ser utilizado para implementar agentes. Ao invés de definir um novo formalismo lógico, ou de estender um formalismo existente com uma semântica operacional, define-se as noções de crenças, desejos e intenções utilizando um formalismo lógico que seja, ao mesmo tempo, formalmente bem-definido e computacional. O formalismo escolhido é a Programação em Lógica Estendida com Negação Explícita (ELP) com a semântica dada pelaWFSX (Well-Founded Semantics with Explicit Negation - Semântica Bem-Fundada com Negação Explícita). ELP com a WFSX (referida apenas por ELP daqui para frente) estende programas em lógica ditos normais com uma segunda negação, a negação explícita1. Esta extensão permite que informação negativa seja explicitamente representada (como uma crença que uma propriedade P não se verifica, que uma intenção I não deva se verificar) e aumenta a expressividade da linguagem. No entanto, quando se introduz informação negativa, pode ser necessário ter que se lidar com programas contraditórios. A ELP, além de fornecer os procedimentos de prova necessários para as teorias expressas na sua linguagem, também fornece um mecanismo para determinar como alterar minimamente o programa em lógica de forma a remover as possíveis contradições. O modelo aqui proposto se beneficia destas características fornecidas pelo formalismo lógico. Como é usual neste tipo de contexto, este trabalho foca na definição formal dos estados mentais em como o agente se comporta, dados tais estados mentais. Mas, constrastando com as abordagens até hoje utilizadas, o modelo apresentanto não é apenas uma especificação de agente, mas pode tanto ser executado de forma a verificar o comportamento de um agente real, como ser utilizado como mecanismo de raciocínio pelo agente durante sua execução. Para construir este modelo, parte-se da análise tradicional realizada na psicologia de senso comum, onde além de crenças e desejos, intenções também é considerada como um estado mental fundamental. Assim, inicialmente define-se estes três estados mentais e as relações estáticas entre eles, notadamente restrições sobre a consistência entre estes estados mentais. Em seguida, parte-se para a definição de aspectos dinâmicos dos estados mentais, especificamente como um agente escolhe estas intenções, e quando e como ele revisa estas intenções. Em resumo, o modelo resultante possui duas características fundamentais:(1) ele pode ser usado como um ambiente para a especificação de agentes, onde é possível definir formalmente agentes utilizando estados mentais, definir formalmente propriedades para os agentes e verificar se estas propriedades são satifeitas pelos agentes; e (2) também como ambientes para implementar agentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Entre as doenças causadas por bactérias do gênero Mycobacterium, a tuberculose por M. tuberculosis é a mais conhecida. O diagnóstico da doença é feito utilizando-se um conjunto de exames que possibilitam a identificação da mesma (WATT, 2000). Contudo, sabe-se que o diagnóstico combinado de microscopia direta e com o posterior isolamento em meio de cultivo é o “padrão-ouro”. A principal desvantagem desse método é que tal bactéria possui um crescimento lento (cerca de 8 semanas). Recentemente, a detecção de doenças através da técnica de reação em cadeia da polimerase (PCR) tem proporcionado avanços significativos no diagnóstico. O uso da amplificação específica de genes, para identificar a M. tuberculosis, tais como rDNA 16S, IS6110 ou a região intergênica senX3-regX3, tem apresentado algumas restrições, ao nível de confiabilidade e sensibilidade, para a aplicação da técnica de PCR. O presente estudo mostra a construção e a aplicação de um novo alvo para a aplicação da PCR no diagnóstico da tuberculose, baseado no ensaio da diferença de organização gênica do operon plcA, B e C diferenciando a M. tuberculosis das demais micobactérias. Neste trabalho, foram examinadas 273 amostras de pacientes com suspeita de tuberculose, sendo estas submetidas ao estudo comparativo da técnica de PCR versus cultivo (padrão ouro). A PCR amplificou fragmentos de 439pb. Os resultados mostram 93,7% de acurácia para PCR/Cultivo (p<000,1), 93,1% de sensibilidade com intervalo de confiança de 88,7-96,0 e especificidade de 96,4% com intervalo de confiança de 96,4-99,4. O valor da estatística Kappa (k) foi de 0,82 com erro padrão de 0,041, demonstrando um alinhamento quase perfeito para a verificação do grau de concordância entre os testes. Desta forma, o uso desta nova região para a amplificação da PCR se mostra uma importante e confiável ferramenta no diagnóstico específico da tuberculose. Outra região que compreende parte dos genes mbaA e inhA foi utilizada para diferenciar o Complexo tuberculosis do Complexo avium. Porém, novos experimentos serão necessários para o emprego desta região como uma ferramenta de diagnóstico.