36 resultados para Critérios de posicionamento radiográfico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: Estudos sobre implicações clínicas da nova definição de infarto do miocárdio (IAM), incorporando novos marcadores de lesão miocárdica, são escassos na literatura. A prevalência de IAM e das suas complicações são diretamente dependentes do critério diagnóstico utilizado. Objetivo: Avaliar o impacto diagnóstico, prognóstico e econômico da nova definição de IAM proposta pela AHA/ ESC usando troponina T (TnT) como marcador de lesão cardíaca. Métodos: Um total de 740 pacientes com dor torácica admitidos na Emergência do Hospital de Clínicas de Porto Alegre no período de julho/ 1999 a janeiro/ 2002 foram incluídos no estudo. Creatina quinase total (CK), CK-MB atividade e TnT foram dosados em uma amostra de 363 pacientes, representativa de toda a coorte. Para redefinição de IAM foram utilizados como ponto de corte valores pico de TnT > 0,2 mg/dl. Os desfechos avaliados foram classificados como eventos cardíacos maiores (angina recorrente, insuficiência cardíaca congestiva, choque cardiogênico e óbito) e como procedimentos de revascularização. Também foram avaliados o manejo prescrito, os custos e o faturamento hospitalar. Resultados: Nos 363 pacientes com marcadores dosados, foram diagnosticados 59 casos de IAM (16%) pelos critérios clássicos; enquanto 40 pacientes (11%) tiveram o diagnóstico de IAM pelo critério redefinido, o que corresponde a um incremento de 71% na incidência. Pacientes com IAM redefinido eram significativamente mais idosos e do sexo masculino, apresentaram mais dor atípica e diabetes mellitus. Na análise multivariada, pacientes com infarto redefinido tiveram um risco 5,1 [IC 95% 1,0-28] vezes maior para óbito hospitalar e 3,4 [IC 95% 1,1-10] vezes maior para eventos combinados em relação aqueles sem IAM. O manejo dos casos de IAM redefinido foi semelhante ao manejo daqueles com IAM tradicional, exceto pelos procedimentos de revascularização que foram menos freqüentes (25% vs. 51%, P < 0,001). O grupo com IAM redefinido permaneceu mais tempo internado e foi submetido a procedimentos mais tardiamente. Do ponto de vista institucional, o uso dos novos critérios para IAM poderia resultar em um aumento de 9% (mais R$ 2.756,00 por grupo de 100 pacientes avaliados) no faturamento baseado em diagnóstico segundo a tabela do SUS. Conclusões: O novo diagnóstico de IAM acrescenta um número expressivo de indivíduos com infarto aos serviços de emergência. A incorporação deste critério é importante na medida que estes pacientes têm um prognóstico semelhante aos demais casos tradicionalmente diagnosticados. Como a identificação destes casos poderia resultar em um manejo mais qualificado e eficiente destes pacientes, esforços deveriam ser adotados para reforçar a adoção da redefinição de IAM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As maiores dificuldades encontradas no teste de software estão relacionadas à definição dos dados de teste e a decisão de quando encerrar os testes. Uma das formas encontradas para minimizar tais dificuldades está centrada na utilização de critérios de cobertura. O principal objetivo dos critérios de cobertura é tornar o processo de testes mais rápido e preciso, fornecendo informações que determinem o que testar em um software para garantir sua qualidade. A modelagem é um dos elementos de maior importância nas atividades relacionadas ao desenvolvimento de software. Os modelos são construídos principalmente para melhor se entender o sistema, descrever a estrutura e comportamento desejados, visualizar a arquitetura e documentar as decisões tomadas durante o seu desenvolvimento. Atualmente, o sistema de notação mais utilizado para a modelagem de sistemas baseados nos conceitos de orientação a objetos é a Linguagem de Modelagem Unificada – UML [LAR 99]. Nesta notação, um sistema é descrito por um conjunto de diagramas que apresentam diferentes aspectos do sistema. As informações disponibilizadas por estes diagramas propiciam, já nas fases iniciais do desenvolvimento da aplicação (análise e projeto), o planejamento dos casos de teste e a definição de critérios de cobertura. Observa-se que nestas fases a maioria das informações necessárias para o teste já estão disponíveis, como por exemplo, a definição das classes com seus atributos, métodos e relacionamentos, a representação da interação existente entre objetos para a realização de um cenário e a descrição dos possíveis estados e transições de um objeto em resposta a eventos externos e internos. Este trabalho propõe um conjunto de diretrizes e critérios de cobertura de teste, tendo como base as especificações diagramáticas UML. As diretrizes estabelecem um conjunto de instruções para que o teste seja feito e os critérios de cobertura identificam os pontos principais e serem considerados durante o teste. Na definição das diretrizes e dos critérios foram avaliadas as informações disponibilizadas pelos diagramas de classes, seqüência, colaboração e estados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo é uma coorte não concorrente em 63 pacientes (66 quadris) submetidos à revisão de artroplastia total de quadril (RATQ), com enxerto ósseo liofilizado moído e impactado. Foi realizado no Serviço de Ortopedia e Traumatologia do Hospital de Clínicas de Porto Alegre (HCPA), no período de maio de 1997 a setembro de 2003. O objetivo do estudo foi comparar clínica, radiográfica e cintilograficamente a capacidade de osteointegração dos enxertos ósseos liofilizados humano e bovino impactados em RATQs cimentadas e não-cimentadas. Os pacientes foram divididos em dois grupos: o Grupo 1 (n=35) foi composto pelos que receberam enxerto ósseo liofilizado de origem humana e o Grupo 2 (n=31) por aqueles que receberam enxerto de origem bovina. O tempo médio de seguimento foi de 33 meses. Os enxertos ósseos purificados e liofilizados foram produzidos pelo Banco de Tecidos do HCPA. A análise clínica baseou-se no escore de Merle, d’Aubigné e Postel; a radiográfica, nos critérios de radioluscência, densidade, formação de trabeculado ósseo, migração dos componentes e floculação, formulando-se um escore radiográfico de osteointegração (EROI). Foram escolhidos, aleatoriamente, como forma complementar de análise por imagem, 35 (53%) pacientes assintomáticos para realizarem cintilografia óssea com Tecnécio, sendo 17 (48,5%) do Grupo 1 e 18 (51,5%) do Grupo 2. Não foram encontradas diferenças clínicas, radiográficas ou cintilográficas relevantes entre os grupos, obtendo-se em torno de 85% de integração do enxerto, tanto no componente acetabular quanto femoral. Estes resultados são comparáveis aos relatados na literatura com o uso de enxerto alogênico congelado e confirmam a adequacidade do uso de enxertos liofilizados de origem bovina e humana em RATQ.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente estudo foi avaliar a associação entre idade, placa visível, inflamação gengival, experiência de cárie, atividade de cárie e presença de cavidade na lesão de cárie proximal com radiolucidez na porção externa de dentina em molares decíduos. Além disso, validar o exame visual direto após a separação dentária como método de diagnóstico de cavidade cariosa. Para tal, um estudo observacional transversal analítico foi desenvolvido com 51 crianças entre 4 e 10 anos de idade, atendidas no Ambulatório de Odontopediatria da FO-UFRGS. Uma lesão de cárie proximal por indivíduo foi sorteada, caracterizada pela presença de radiolucidez na metade externa de dentina na superfície proximal, ausência de cavidade clínica envolvendo outras faces e de restauração na superfície proximal adjacente. Um examinador calibrado registrou os índices de placa visível (IPV) e sangramento gengival (ISG) (AINAMO; BAY, 1975) e experiência de cárie (ceo-s e CPO-S modificados). Um elástico ortodôntico foi inserido no espaço interproximal, sendo removido após 2 a 3 dias, o que permitiu o diagnóstico por meio da visualização direta da lesão. A impressão do sítio interproximal foi utilizada como método de validação do exame clínico. As variáveis quantitativas (idade, ceo-s e CPO-S) foram categorizadas e relacionadas ao desfecho através do teste qui-quadrado e da análise de regressão logística. O percentual médio de superfícies com IPV e ISG foi 31,1±15,6% e 39,2±12,8%, respectivamente. A experiência de cárie da amostra nos dentes decíduos foi 10,1±7,8 (ceo-s) e permanentes, 2,2±2,8 (CPO-S). A freqüência de lesões cariosas com cavidade foi 60,8%, sendo 67% destas de natureza inativa. Além disso, 60,8% dos indivíduos apresentaram atividade de cárie (presença de lesão cariosa de natureza ativa). Não foram observadas associações significativas entre idade, placa visível, sangramento gengival, experiência e atividade de cárie e presença de cavidade. A sensibilidade, especificidade, valores preditivos positivo e negativo foram 93,5% (IC95% 79,3-98,2), 80,0% (IC95% 58,4-91,9), 87,9% (IC95% 72,7-95,2) e 88,8% (IC95% 67,2-96,9), respectivamente. Concluiu-se que não foi possível demonstrar associação entre idade, placa visível, inflamação gengival, experiência e atividade de cárie com a presença de cavidade em lesões de cárie proximais com radiolucidez na metade externa da dentina de molares decíduos. O exame visual direto após a separação temporária dos dentes decíduos é um recurso útil de diagnóstico, mas não considerado padrão para a determinação de cavidade de cárie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo tem por objetivo principal a identificação de critérios e indicadores essenciais de avaliação para sistemas de treinamento corporativo virtual. A motivação para a realização deste estudo surgiu em decorrência das constantes dificuldades enfrentadas pelas organizações no tocante à avaliação de seus programas de treinamento – sobretudo treinamento virtual – bem como com relação à vinculação entre os resultados destes programas e os resultados globais obtidos pelas empresas. Neste contexto, a pesquisa parte de um referencial teórico sustentado pelas seguintes temáticas: perspectivas de treinamento e desenvolvimento; estrutura e avaliação de treinamento – especialmente treinamento virtual – com ênfase no modelo de avaliação de quatro níveis, proposto por Kirkpatrick (1998); e definição de indicadores sob as ópticas da qualidade (TAKASHINA; FLORES, 1995; CAMARGO, 2000; CAMPOS, 2001) e da metodologia do Balanced Scorecard (KAPLAN; NORTON, 1997). A partir de tais conceitos obtidos durante o estudo bibliográfico, foi sintetizado um modelo conceitual de avaliação, e elaborada a pesquisa exploratória, composta de uma etapa de coleta de dados e de uma etapa de estudo de caso em uma empresa do comércio varejista. Na etapa de coleta de dados, foram realizadas entrevistas com 9 especialistas em educação a distância e foi feita a análise de 32 práticas organizacionais de treinamento virtual (cujos resultados originaram o modelo conceitual-exploratório). Na etapa de estudo de caso em uma empresa do comércio varejista, foram identificados 20 indicadores de resultado relevantes e, posteriormente, foi elaborado um modelo customizado de avaliação de treinamento virtual, com utilização de entrevistas, documentação, observação direta e apoio no referencial teórico. Este modelo de avaliação visa o estabelecimento de relações entre os critérios e indicadores de treinamento virtual, e os principais indicadores de avaliação de resultados propostos para a empresa, como forma de explicitação de possíveis relações entre resultados de treinamento virtual e resultados organizacionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Após o refinamento, os critérios foram utilizados experimentalmente em três tipos de métodos de avaliação tradicionais, a saber, avaliação heurística, inspeção de conformidade e ensaios de interação. Os resultados obtidos com estas avaliações demonstraram que os critérios de avaliação, definidos neste trabalho, capturaram muito mais problemas relacionados à técnica do que os critérios tradicionalmente usados para avaliar interfaces gráficas. Um resultado promissor, não previsto, foi a constatação que o conjunto de critérios propostos detectaram, também, um número expressivo de problemas de usabilidade na interface, quando da aplicação das sessões de avaliação heurística. Este resultado evidencia a possibilidade de extensão deste conjunto de critérios a fim de avaliar, também, as principais características da interface das técnicas de visualização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estuda a aplicação de uma proposta de sistemática de posicionamento estratégico dos materiais, com estudo de caso em uam indústria da cadeia automotiva, afim de identificar ações estratégicas de relacionamento com fornecedores, tendo em vista a relação risco de suprimento e a importância dos materiais nos resultados da empresa. Diferente do paradigma histórico das relações de suprimentos, que tratavam os processos de aquisição para a maioria dos bens e serviços da mesma forma, a segmentação de fornecimento direciona para o desenvolvimento de estratégias de suprimentos eficientes e eficazes. A aplicação de uma Matriz de Posicionamento Estratégico dos Materiais permite sugerir ações estratégicas segmentadas na cadeia de fornecimento como forma de contribuir na alavancagem da competitividade, agregando de valor e reduzindo custos das empresas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os critérios de outorga adotados nas legislações dos estados inseridos no semi-árido - a fim de regulamentar a vazão de referência a partir de açudes - tem se baseado simplesmente em volumes (vazões) associados a níveis de confiabilidade de atendimento à demanda, não estabelecendo políticas operacionais que tornem seus usos menos vulneráveis às falhas prolongadas e concentradas que são comuns à região. Este trabalho tem o objetivo de avaliar as vazões de referência segundo as políticas de operação (PO) padrão e volumes de alerta. A primeira é uma operação menos arrojada se comparada com a segunda. Isto decorre do fato que na primeira não há maiores preocupações com a vulnerabilidade nos períodos de falha. Já a política de operação baseada em volumes de alerta assegura que na pior situação um suprimento mínimo será realizado. Foi elaborado um modelo de simulação com sub-tarefas de operação de reservatório, operação de projetos hidroagrícolas, operação de atendimento às demandas, avaliação econômica dos déficits e fornecimento de indicadores para subsidiar as avaliações. Dentre os indicadores fornecidos pelo modelo destacam-se: confiabilidade mensal da demanda primária, confiabilidade mensal da demanda secundária, confiabilidade anual do sucesso da atividade agrícola, anuidade equivalente dos custos de falha na demanda primária, anuidade equivalente dos benefícios líquidos da agricultura, anuidade líquida equivalente e total evaporado. Diante da análise de tais indicadores chegou-se à conclusão de que a PO volumes de alerta apresentou resultados superiores à operação padrão. O fato de assegurar o suprimento durante os longos e concentrados períodos de falha gera uma economia que não é superada pelo incremento de água oferecido pela PO padrão.Constatou-se também que a PO padrão coloca todas as categorias de demanda sob o mesmo patamar de vulnerabilidade, enquanto que na PO volumes de alerta as cotas são oferecidas com garantias diferenciadas, sendo mais atraentes do ponto de vista do gerenciamento.