14 resultados para Tomografia computadorizada da ATM

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

São analisados 106 pacientes submetidos a localização estereotáctica. Os procedimentos variaram de biópsias cerebrais, orientação de craniotomias, colocação de cateter em cavidade tumoral, drenagem de hematoma intracerebral e drenagem de abscesso cerebral. As orientações de craniotomias foram para MAVs, tumores e processos inflamatórios, em 21 pacientes. As biópsias cerebrais estereotácticas para diagnóstico anatomopatológico apresentaram um índice de positividade de 87,50 % com complicações em 1,20 %, em 82 casos. São analisadas estatisticamente as variáveis como: idade, sexo, procedimento realizado, diagnóstico anatomopatológico e volume das lesões. É discutida a imprecisão na aquisição e cálculo das coordenadas estereotácticas com a TC do encéfalo e verificada a precisão do método estereotomográfico com a utilização de um phanton. O maior erro das coordenadas foi de 6,8 mm.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

INTRODUÇÃO: Os trabalhos sobre o uso de ovelhas para cirurgia experimental e treinamento em cirurgia otológica são raros. O presente trabalho estuda a orelha interna da ovelha por meio de tomografia computadorizada e cortes sucessivos de 0,5 mm, no sentido de apresentar dados morfométricos mais precisos relacionados à comparação entre a orelha de ovelhas e a orelha humana. MATERIAIS e MÉTODO: Foi realizado um estudo descritivo sem seguimento no qual foram comparadas as estruturas da orelha interna da ovelha com as dos humanos. Medidas da orelha interna da ovelha e também da orelha interna humana foram obtidas através de tomografias computadorizadas. As medidas foram armazenadas em unidade de disco compacto no padrão DICOM para posterior análise e manipulação em um programa específico de análise de imagens médicas denominado Osíris 4.16. Neste programa, as imagens foram avaliadas quanto às dimensões de determinadas estruturas, utilizando-se recursos de reconstruções multiplanares, os quais permitiram a realização de medidas nos três eixos: sagital, coronal e axial. As medidas foram tabuladas e posteriormente analisadas pelo programa de planilha de dados e análise estatística Microsoft Excel. Foi calculado um tamanho de amostra mínimo de 36 orelhas ovinas para 12 orelhas humanas. RESULTADOS: O estudo morfológico da orelha da ovelha em média e da orelha humana em média revelaram respectivamente que o vestíbulo apresenta 2,4 mm e 2,9 mm de largura, 4,1 mm e 6,8 mm de comprimento e 3,8 mm e 4,3 mm de altura. O comprimento do modíolo ou columela é de 3,4 mm e 5,9 mm. O diâmetro do giro basal externo da cóclea mede 8,2 mm e 9,1 mm e o diâmetro do giro basal interno da cóclea mede 4,9 mm e 6,4 mm. O diâmetro do giro médio externo da cóclea mede 7,1 mm e 6,9 mm e o diâmetro do giro médio interno da cóclea mede 3,7 mm e 4,4 mm. O diâmetro do giro do ápice externo da cóclea mede 6,2 mm e 6,2 mm e o diâmetro do giro do ápice interno da cóclea mede 3,0 mm e 3,5 mm. O raio do canal do giro basal interno da cóclea mede 1,3 mm e 2,1 mm. O promontório em sua espessura mede 1,4 mm e 1,3 mm. O canal ósseo da cóclea mede 19,9 mm e 26,8 mm de comprimento. O meato auditivo interno em seu diâmetro mede 1,6 mm e 5,2 mm e em seu comprimento mede 2,0 mm e 13,0 mm. CONCLUSÃO: Há grande similaridade entre a anatomia da orelha interna da ovelha e a da orelha interna humana nas mensurações realizadas. A maior parte das estruturas estudadas (10 de 15) preservou a relação proposta de 2/3 da dimensão humana em relação à dimensão ovina. Há uma grande contribuição na morfometria para a ovelha como modelo em cirurgia experimental e treinamento em cirurgia otológica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pesquisa quantitativa do tipo exploratório-descritivo, prospectivo, de caráter não experimental. O objetivo consistiu em conhecer as reações adversas imediatas ao contraste iodado intravenoso em pacientes internados, submetidos a tomografia computadorizada num hospital escola, sendo campo do estudo a Unidade de Tomografia do Hospital de Clínicas de Porto Alegre. A coleta de dados ocorreu através de planilha de registros preenchida pela equipe de enfermagem atuante na Unidade, durante as 24 horas de funcionamento do setor, no período entre outubro e dezembro de 2004, totalizando 351 pacientes observados. Os registros incluíram dados relativos à dinâmica do exame, características da clientela e ocorrência dos eventos em estudo. Para o tratamento dos dados, recorreu-se à estatística descritiva e descritiva, com emprego dos softwares SPSS, EPI INFO e PEPI. Os eventos adversos foram considerados imediatos quando ocorreram até 30 minutos após a injeção do contraste. Durante o período do estudo, todas as reações adversas apresentaram intensidade leve, manifestando-se com freqüência de 12,5% entre os 160 pacientes que receberam contraste iodado iônico e 1,0% entre os 191 pacientes que receberam contraste não iônico (p=0,000). O emprego do meio não iônico mostrou-se eficaz na prevenção de reações adversas ao contraste iodado, mesmo na presença de condições clínicas que aumentam o risco para ocorrência desses eventos. A administração intravenosa do contraste através de bomba injetora aumentou significativamente o percentual de reações adversas, em comparação com a injeção manual (p=0,013). O extravasamento de contraste, considerado um evento adverso local, ocorreu em 2,2% das 317 injeções em veia periférica, e os volumes extravasados oscilaram entre 1 e 15 mililitros, com média equivalente a 4,4 mililitros, não ocasionando complicações em nenhum dos casos. A administração intravenosa de contraste através de cateter plástico ocasionou freqüência significativamente menor de extravasamentos do que o emprego de agulha metálica (p=0,041). Os índices evidenciados no presente estudo encontram-se dentro dos limites que constam na revisão de literatura, apesar das pesquisas internacionais apresentarem diferenças entre si na seleção das amostras ou critérios para definição das reações adversas imediatas. Entre as recomendações, sugere-se que os serviços de tomografia conheçam as próprias taxas de reações adversas ao contraste iodado e as condições em que elas ocorrem, a fim de obter evidências para avaliação dos respectivos processos assistenciais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é avaliar os efeitos dos parâmetros inerciais (massa, localização do centro de massa e momento de inércia) obtidos através de diferentes procedimentos, no valor calculado para as forças e torques articulares resultantes, determinados através da dinâmica inversa. Para tal, pretende-se: (a) implementar um método para calcular a força nas articulações do tornozelo, joelho e quadril, em atividades motoras humanas consideradas bidimensionais, utilizando a técnica da dinâmica inversa, com os equipamentos disponíveis do Laboratório de Pesquisa do Exercício da Escola de Educação Física da Universidade Federal do Rio Grande do Sul; (b) desenvolver um protocolo de medição dos parâmetros inerciais dos segmentos corporais (massa, localização do centro de massa e momento de inércia) do membro inferior, baseado na pesagem hidrostática, e que apresente informações individualizadas; e (c) operacionalizar um protocolo de medição dos parâmetros inerciais dos segmentos corporais (massa, localização do centro de massa e momento de inércia) do membro inferior baseado no uso da tomografia computadorizada. Diversas situações consideradas bidemensionais foram avaliadas, como caminhada, corrida, agachamento, salto com amortecimento, e salto sem amortecimento. Para avaliar o modelo, os dados provenientes do cálculo foram confrontados com valores de força obtidos a partir da instrumentação de uma prótese de joelho (Cervieri, 2000). Os parâmetros inerciais obtidos através da tomografia computadorizada e da pesagem hidrostática apresentaram diferenças superiores a 100%, quando comparados com os valores fornecidos pelas tabelas antropométricas. Entretanto, no que se refere a fase de contato com o solo dos eventos realizados (instante de maiores forças envolvidas), os diversos métodos de obtenção dos parâmetros inerciais, não apresentam diferenças significativas no valor máximo calculado para as forças internas, através da dinâmica inversa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em uma amostra constituída de oito mandíbulas humanas secas, foram selecionados quatro sítios na região de segundo pré-molar a primeiro molar, dos de cada lado. Um come de gutta-percha foi fixado com adesivo instantâneo na face lingual da mandíbula, na região de cada sítio. Para simular a presença de tecidos moles, as mandíbulas foram incluídas em parafina. Para a correta seleção dos sítios de exame, a tomografia hipocicloidal, foi utilizazda uma incidência radiográfica oclusa total dee cada mandíbula, cuja imagem foi capturada par ao monitor. Sobre a mesma foram selecionados os sítos para a obtenção de cortes ortorradiais de tomografia hipocicloidal, com espessura de 2 mm, através do equipamento IS2000 COMM-CATR. A tomografia computadoriza helicoidal foi obtida através do equipamento Twin FlashR e as reconstruções ortorradiais, cada uma com 2 mm de espessura, foram realizadas com o softtware Denta CTr. A mandíbulas foram seccionadas nos sítios propostos e todas as imagens, digitalizadas através de scanner. As imagens de tomografia hipocicloidal foram redimensionadas de acordo com a magnificação de 26%. Dois examinadores previamente calibrados realizaram medidas de distâncias e horizontais das imagens digitais apresentadas no monitor, sob condições ideiais de visualizaação. As comparações intra e interexaminador não mostraram variabilidade significativas. As medidas obtidas pelos dois métodos foram comparadas ao padrão-ouro e as diferenças encontradas foram menores que 0,1 mm. Tais resultados permitem concluir que, na presente amostra, tanto a tomografia computadoriza helicoidal quando a tomografia hipocicloidal permite obtenção segura das medidas verticais e horizontais propostas na região posterior mandíbula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundamentos: A literatura tem demonstrado que a detecção precoce e a remoção cirúrgica em fases iniciais reduz a mortalidade do melanoma e que, em conseqüência, a identificação do melanoma em fases curáveis deve ser encorajada. Objetivos: O interesse principal do estudo foi conhecer se os melanomas cutâneos, no meio, estão sendo diagnosticados em fases iniciais, através de método reprodutível e armazenável. Metodologia: Foi realizado um estudo transversal com os casos de melanomas cutâneos primários, analisados nos laboratórios de patologia de Porto Alegre, de 1° de janeiro de 1994 a 30 de junho de 1995, a fim de avaliar se os diagnósticos foram realizados em estágios precoces. Os casos foram revisados por três dermatopatologistas, que classificaram quanto ao tipo histológico e quanto ao nível de invasão de Clark. Foi realizado um consenso com pelo menos duas concordâncias. A espessura de Breslow foi considerada fator prognóstico determinante e foi medida através de um sistema de análise de imagem computadorizada, por dois membros da equipe. Resultados: Do total de 279 casos que preencheram os critérios de inclusão, 2,15% eram intraepiteliais. Dos melanomas invasivos, 52% tinham espessura ≤ 1,5 mm. Quando agrupado por sexo e procedência, as mulheres de Porto Alegre, capital do estado do Rio Grande do Sul, tiveram a mais alta taxa de diagnóstico precoce (75% ≤ 1,5 mm). O tronco foi o sítio predominante no homem e freqüente na mulher. O melanoma de espalhamento superficial foi o tipo histológico mais freqüente (80,9%), seguido pelo nodular (10,1%). Para definir os determinantes do diagnóstico precoce, foram realizados cruzamentos simples, dos melanomas intraepiteliais somados aos de espessura <0,76 mm, com o sexo, a idade, a procedência, a situação previdenciária, a região anatômica e o tipo histológico. A análise de variáveis múltiplas demonstrou que apenas o sexo (feminino), o sítio anatômico (outras regiões exceto membros inferiores) e a procedência (Porto Alegre) mostraram-se variáveis independentes para determinar um diagnóstico precoce. A idade ≥ 40 anos apresentou significância próxima ao limite. O tipo histológico foi excluído do modelo, uma vez que gerou instabilidade estatística. Conclusão: Embora o número de casos fosse pequeno, o diagnóstico do melanoma ainda é tardio (52% com até 1,5 mm de espessura). Entretanto, existe um subgrupo de diagnóstico precoce que são mulheres, sobretudo de Porto Alegre, possivelmente por estarem mais atentas e informadas sobre os riscos do melanoma. As mudanças no estilo de vida, nas últimas décadas, provavelmente são responsáveis pela maior incidência no tronco e pela alta freqüência de melanoma de espalhamento superficial encontrada. A análise da espessura tumoral por projeção em tela de computador mostrou-se um recurso auxiliar vantajoso.