915 resultados para Aparelho de extração extrabucal
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.
Resumo:
Neste trabalho inicialmente foi sintetizado o precursor organoalcoxisilano 3- anilinapropiltrimetoxisilano, APTMS, a partir da reação entre a anilina e o 3- cloropropiltrimetoxisilano, CPTMS, usando hidreto de sódio, NaH, como ativador de base. O precursor inorgânico tetraetilortosilicato, TEOS, foi polimerizado na presença do precursor orgânico, e catalisador. Durante a etapa de polimerização dos precursores alcóxidos, foram investigadas as influências da temperatura, do tipo e concentração do catalisador e da concentração de precursor orgânico adicionado nas propriedades finais dos híbridos anilinapropilsilica resultantes. Os materiais híbridos foram caracterizados através das técnicas: espectroscopia no infravermelho (FT-IR), técnica de espalhamento de Raios-x a baixos ângulos (SAXS), microscopia eletrônica de varredura (SEM), isotermas de adsorção e dessorção de nitrogênio, análise elementar, espectroscopia de aniquilação de pósitrons (PALS), análise termogravimétrica (TGA), espectroscopia de elétrons dispersos (EDS). A potencialidade de aplicação dos híbridos obtidos como materiais adsorventes na extração dos cátions Cu(II), Zn(II), Cd(II) e Co(II), em solução, foi investigada usando-se isotermas de adsorção pelo método batelada. Através das técnicas de caracterização foi possível observar que as propriedades morfológicas dos materiais como área superficial, distribuição do tamanho de poros, forma e tamanho das partículas, além da estabilidade e grau de incorporação orgânica podem ser controladas em maior ou menor grau, dependendo da variável usada durante a polimerização dos precursores alcóxidos. O material apresentou propriedades promissoras como adsorvente seletivo para o cobre.
Resumo:
Ratos machos Long-Evans e Wistar foram submetidos a uma tarefa de alternância de escolhas num labirinto em Y (delayed two-alternative-choice task). Esta tarefa requer orientação espacial egocêntrica (baseada na localização do animal dentro do aparelho) e, ao mesmo tempo, exclui a orientação espacial alocêntrica (baseada na detecção de elementos visuais externos ao aparelho). Os animais foram expostos a 10 sessões de treino para cada animal, os quais eram submetidos a injeção de salina (controles), ou dos antipsicóticos clozapina (0,5 ,g/kg i.m.), olanzapina (0,5 mg/kg i.p.) e risperidona (0,5 mg/kg i.p.) uma hora antes do início de cada tarefa. Na primeira sessão, os ratos eram recompensados por seguir até o final de cada braço, onde achavam comida. Nas seguintes nove corridas, os animais eram recompensados somente se eles entrassem no braço que não tinha sido previamente escolhido. Mediu-se também o tempo de corrida até o final de cada braço, com o consumo da comida. Um tempo limite foi estabelecido para esse tempo: se em 180 segundos o animal não consumasse a tarefa, o mesmo era retirado do aparelho e colocado no braço inicial. Com o objetivo de excluir orientação espacial alocêntrica (ou seja, utilizando sinais externos ao aparelho), a orientação do Y-maze foi modificada dia após dia, em uma ordem pseudo-randomizada A tarefa foi desenvolvida em dias consecutivos, sem pausa. Os resultados dos experimentos demonstraram que os antipsicóticos clozapina e olanzapina prejudicaram a orientação espacial egocêntrica no labirinto em Y. Em contrapartida, risperidona prejudicou a orientação espacial egocêntrica somente nos primeiros quatro dias; nos seguintes quatro dias não teve nenhum efeito. O tempo de corrida não foi alterado pela clozapina e foi prolongado pela olanzapina e pela risperidona. Não se observou catalepsia ou redução do comportamento cognitivo; nos animais tratados com olanzapina observou-se uma leve sedação.
Resumo:
Foi estudada uma bacteriocina produzida por uma linhagem de B. cereus 8A, isolado de solo da região Sul do Brasil. Na primeira etapa de estudo determinaram-se as condições básicas de produção de bacteriocina com amplo espectro de ação denominada de Cereína 8A. Observou-se que durante a fase estacionária ocorre o máximo da sua produção, iniciando sua síntese no final da fase exponencial. As condições de maior produção foram a 30º C, agitação e contínua e numa faixa de pH de 7,0-8,5. A bacteriocina bruta inibiu várias bactérias indicadoras, como Listeria monocytogenes, Clostridium perfringens e Bacillus cereus. O teste de termoestabilidade mostrou a perda de atividade quando submetida a uma temperatura a partir de 87º C. Verificou-se a resistência da bacteriocina bruta frente à tripsina e papaína, mas não frente à proteinase K e pronase E. B. cereus e L. monocytogenes foram utilizadas como bactérias indicadoras para a determinação do modo de ação, após a determinação da dose bactericida de 200 UA mL-1 e 400 UA mL-1 respectivamente. A Cereína 8A demonstrou uma ação inibidora em culturas de Escherichia coli e Salmonella Enteritidis, quando tratadas com EDTA. A atividade esporicida foi observada contra esporos de B. cereus após tratamento com 400 UA ml -1. A análise da biomassa de L. monocytogenes e B. cereus após tratamento com a Cereína 8A, através da espectrofotometria de infravermelho determinou alteração no perfil, correspondente à fração dos ácidos graxos da membrana celular bacteriana. A substância peptídica foi separada por meio da precipitação com sulfato de amônio, extração com 1-butanol e aplicação em coluna de cromatografia por troca iônica tipo Q-Sepharose. A Cereína 8A purificada mostrou maior sensibilidade a proteases e ao calor e um peso molecular de aproximadamente 26 kDa. O espectro ultravioleta foi típico de um polipeptídeo e o espectro de infravermelho indica presença de grupamentos NH, acil e ligações peptídicas na sua estrutura. Uma hipótese do mecanismo de ação seria a desestruturação da membrana celular pela abertura de poros.
Resumo:
Objetivo: Estudar a concordância no diagnóstico radiológico da doença respiratória aguda baixa (DRAB) em crianças. Métodos: Sessenta radiogramas do tórax de crianças menores de cinco anos foram avaliados, individualmente, por três médicos: um radiologista pediátrico (RP), um pneumologista pediatra (PP) e 1 pediatra experiente no atendimento de sala de emergências (PE). Todas as crianças tinham procurado atendimento por apresentar um quadro agudo de infecção respiratória com aparente participação pulmonar. Os avaliadores desconheciam os diagnósticos originais, mas receberam uma ficha padrão com dados clínicos e laboratoriais dos pacientes no momento da consulta inicial. Variáveis: Agrupadas em cinco categorias: a) qualidade técnica do filme; b) localização da alteração; c) padrões radiográficos; d) outras alterações radiográficas; e) diagnóstico. Análise Estatística: Para estudar a concordância entre as três duplas posíveis de observadores, utilizou-se a estatística de Kappa, aceitándo-se os valores ajustados para viés de prevalência (PABAK). Resultados: Os valores Kappa totais de cada dupla de observadores (RP x PP, RP x PE e PP x PE) foram 0.41, 0.43, e 0.39 respectivamente, o que representa em média, uma concordância interobservadores moderada (0.41). Outras variáveis: “qualidade técnica” teve uma concordância regular (0.30); com “localização”, foi moderada (0.48); com “padrões radiográficos” foi regular (0.29); com “outras alterações radiográficas” foi moderada (0,43); e com “diagnóstico”, regular (0.33). Quanto à concordância global intraobservadores, a mesma foi moderada (0.54), com valores menores dos descritos na literatura. Conclusões: A variabilidade interobservadores é inerente à interpretação dos achados radiológicos, e determinar o diagnóstico exato da DRAB nas crianças tem seus desafíos. Nossos resultados foram similares aos descritos na literatura.
Resumo:
A disfunção autonômica está associada com aumento da mortalidade em pacientes diabéticos, especialmente naqueles com doença cardiovascular. Neuropatia periférica, mau controle glicêmico, dislipidemia e hipertensão são alguns dos fatores de risco para o desenvolvimento de doença vascular periférica (DVP) nestes pacientes. O objetivo deste estudo foi avaliar os fatores de risco associados com a presença de DVP em pacientes com DM tipo 2. Um estudo transversal foi realizado em 84 pacientes com DM tipo 2 ( 39 homens, idade média de 64,9 ± 7,5 anos). Os pacientes foram submetidos a uma avaliação clínica e laboratorial. A presença de DVP foi definida, utilizando-se um um aparelho manual de ultrasom com doppler (índice perna-braço < 0,9). A atividade autonômica foi avaliada através da análise da variabilidade da freqüência cardíaca (HRV) por métodos no domínio do tempo e da freqüência (análise espectral), e pelo mapa de retorno tridimensional durante o período do dia e da noite. Para a análise da HRV, um eletrocardiograma de 24 horas foi gravado e as fitas analisadas em um analisador de Holter Mars 8000 (Marquete). A potência espectral foi quantificada pela área em duas bandas de freqüência: 0,04-0,15 Hz – baixa freqüência (BF), 0,015-0,5 Hz – alta freqüência (AF). A razão BF/AF foi calculada em cada paciente. O mapa de retorno tridimensional foi construído através de um modelo matemático onde foram analisados os intervalos RR versus a diferença entre os intervalos RR adjacentes versus o número de contagens verificadas, e quantificado por três índices refletindo a modulação simpática (P1) e vagal (P2 e P3). DVP estava presente em 30 (36%) pacientes. Na análise univariada, pacientes com DVP apresentaram índices que refletem a modulação autonômica (análise espectral) diminuídos quando comparados aos pacientes sem DVP, respectivamente: BF = 0,19 ± 0,07 m/s2 vs. 0,29 ± 0,11 m/s2 P = 0,0001; BF/AF = 1,98 ± 0,9 m/s2 vs. 3,35 ± 1,83 m/s2 p = 0,001. Além disso, o índice que reflete a atividade simpática no mapa de retorno tridimensional (P1), foi mais baixo em pacientes com DVP (61,7 ± 9,4 vs. 66,8 ± 9,7 unidades arbitrárias, P = 0,04) durante a noite, refletindo maior ativação simpática neste período. Estes pacientes também apresentavam uma maior duração do diabetes (20 ± 8,1 vs. 15,3 ± 6,7 anos, P = 0,006), níveis de pressão arterial sistólica (154 ± 20 vs. 145 ± 20 mmHg, P = 0,04), razão cintura-quadril ( 0,98 ± 0,09 vs.0,92 ± 0,08, P = 0,01), e níveis de HbA1c mais elevados (7,7 ± 1,6 vs. 6,9 ± 1,7 %, P = 0,04), bem como valores de triglicerídeos ( 259 ± 94 vs. 230 ± 196 mg/dl, P= 0,03) e de excreção urinária de albumina ( 685,5 ± 1359,9 vs. 188,2 ± 591,1 μ/min, P = 0,02) superiores aos dos pacientes sem DVP.. Nos pacientes com DVP observou-se uma presença aumentada de nefropatia diabética (73,3% vs. 29,6% P = 0,0001), de retinopatia (73,3% vs. 44,4% P = 0,02) e neuropatia periférica (705 vs. 35,1% P = 0,006). Os grupos não diferiram quanto à idade, índice de massa corporal, tabagismo e presença de doença arterial coronariana. Na análise logística multivariada, a DVP permaneceu associada com a disfunção autonômica, mesmo após ter sido controlada pela pressão arterial sistólica, duração do DM, HbA1c, triglicerídeos e excreção urinária de albumina. Concluindo, pacientes com DVP e DM tipo 2 apresentam índices que refletem a modulação autonômica diminuídos, o que pode representar um fator de risco adicional para o aumento da mortalidade nestes pacientes.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.
Resumo:
O objetivo deste trabalho foi estudar o comportamento em fadiga de um gancho reduzido do tipo empregado como conector/desconector para plataformas flutuantes de extração de petróleo. Ganchos são componentes mecânicos muito utilizados em aplicações industriais e dimensionados segundo os critérios da mecânica estática. A sua utilização em estruturas offshore é recente e requer a avaliação de seu desempenho em fadiga. A influência de tensões residuais compressivas na seção mais solicitada do gancho foi avaliada nos ensaios. Estas tensões foram geradas por um teste de carga que implica em um esforço de tração que ultrapassa o limite elástico do material. A região da superfície do gancho que sofreu deformação plástica fica comprimida pelo restante do material do gancho carregado no regime elástico que tenta retornar. O mesmo efeito é observado na autofretagem de tubos ou shot peening de componentes aeronáuticos. Foram utilizados ganchos DIN 0.12, que apresentam dimensões reduzidas, para a caracterização mecânica através de ensaios de fadiga e a determinação da curva de Wöhler. Esses ensaios envolveram a comparação entre os ganchos que sofreram a carga de pré-teste (com tensões residuais) e os que não sofreram. Também foi avaliada a influência de defeitos de fundição na vida em fadiga dos ganchos. Os ganchos foram caracterizados metalurgicamente através de análise microestrutural e tamanho de grão ASTM utilizando-se Microscopia Óptica e Eletrônica de Varredura. Foram efetuadas medições de tensões residuais através do Método do Furo em ganchos instrumentados com extensômetros resistivos elétricos. As tensões residuais compressivas induzidas pelo teste de carga tiveram grande influência nos testes de fadiga, aumentando a performance dos ganchos e assegurando sua integridade estrutural.
Resumo:
Nos últimos anos, a contabilização do resultado das empresas estatais nos números que medem a necessidade de financiamento do setor público e o estoque da dívida líquida do setor público tem garantido o cumprimento das metas fixadas para o superávit primário mas tem limitado a quantidade de recursos que as empresas do governo podem tomar na forma de empréstimo para fins de investimento. Ao examinarmos o tratamento dado às contas das Empresas Estatais nos acordos do Brasil com o FMI em relação ao estabelecido nos manuais do Fundo, na União Européia e em diplomas legais brasileiros, encontramos discrepância de tratamento, o que nos faz supor que há condições tanto para a inclusão como para a exclusão das contas das Empresas Estatais, não apenas na apuração dos resultados em termos de déficit ou superávit fiscal, mas também no cálculo dos valores da dívida pública. Ao considerarmos os manuais e a legislação brasileira, verificamos a possibilidade de se adotar um tratamento similar ao empregado na União Européia, excluindo essas sociedades das contas de déficit e dívida. Essa dissertação se propõe a discutir o tratamento das contas das empresas estatais produtivas no orçamento do setor público, utilizando como exemplo a Petrobras, e analisar duas possibilidades: a primeira é a exclusão das contas dessas estatais não apenas na apuração dos resultados em termos de déficit ou superávit fiscal, mas também no cálculo dos valores da dívida pública. A segunda possibilidade é que as contas dessas empresas pelo menos sejam retiradas do cálculo do superávit primário. A Petrobras, por exemplo, possui todos os seus investimentos custeados por recursos próprios oriundos da comercialização de seus produtos ou por captação no mercado. Além disso, a Petrobras não recebe qualquer recurso do governo. Pelo contrário, ela contribui significativamente para a receita pública da União, dos estados e dos municípios, por meio do pagamento de impostos, taxas, contribuições, dividendos e royalties pela extração de petróleo e gás natural, sendo a maior contribuinte individual do Brasil, além da economia de divisas proporcionada ao longo de sua história. Pelos motivos acima expostos, sugerimos a exclusão das contas das empresas estatais produtivas das contas de déficit e de dívida do setor público. Caso esta proposta não seja adotada, sugerimos que pelo menos essas empresas sejam excluídas do cálculo do superávit primário do setor público. Neste documento, analisamos o caso da Petrobras, a empresa estatal federal que apresenta as melhores condições para essas propostas.
Resumo:
Esta dissertação propõe e discute um mecanismo de realimentação de relevâncias (i. e. “Relevance Feedback”). A técnica de realimentação de relevâncias foi introduzida inicialmente em meados dos anos 60, como uma estratégia para refinamento de consultas para a recuperação de informações. Como uma técnica de refinamento de consultas, foi aplicada inicialmente em sistemas de recuperação de informações textuais. Neste caso, os termos ou expressões consideradas importantes, são utilizados na formulação de uma nova consulta. Ao surgirem os sistemas de recuperação de informação visual baseada em conteúdo (CBVIR), houve a necessidade de serem introduzidos novos elementos associados a esse processo de reformulação de consultas, de tal forma que fossem utilizados não apenas as informações de alto nível, como os termos e expressões. Esses novos elementos passaram a considerar também a subjetividade de percepção humana em relação ao conteúdo visual. Neste trabalho, apresenta-se um processo de extração e representação desse conteúdo, através da utilização de feições (conteúdo) de cor e textura, extraídos de imagens JPEG, uma vez que no processo de compressão de imagens nesse formato, utiliza-se coeficientes da Transformada Discreta do Cosseno (DCT), sendo, portanto esses coeficientes utilizados como elementos que possuem as informações associadas a cor e textura na imagem. Além da DCTé utilizada a Transformação Mandala [YSH 83] no processo de agrupamento de somente 10 coeficientes, com o objetivo de produzir 10 imagens com resoluça menor que a imagem original, mas que representam cada uma, o conteúdo de uma frequência particular da imagem original. A escolha por uma representação como essa,é a garantia de uma redução significativa na quantidade de dados a serem processados. Entretanto, a representação obtida nesse formato para as imagens,é com base em conteúdo global de cor e textura, o que pode produzir resultados insatisfatórios. A introdução de um mecanismo de realimentação de relevâncias, associado à representação utilizada, permite contornar a dificuldade apontada acima, através da obtenção de consultas subsequentes, selecionando os objetos mais relevantes, assim como menos objetos não relevantes, utilizando o conhecimento do usuário de forma interativa no refinamento de consultas para recuperação de informações visuais.
Resumo:
A tecnologia de processos de desenvolvimento de software ´e uma importante área de estudo e pesquisas na Engenharia de Software que envolve a construção de ferramentas e ambientes para modelagem, execução, simulação e evolução de processos de desenvolvimento de software, conhecidos como PSEEs (do inglês: Process-Centered Software Engineering Environments). Um modelo de processo de software é uma estrutura complexa que relaciona elementos gerenciáveis (i.e. artefatos, agentes, e atividades) que constituem o processo de software. Esta complexidade, geralmente, dificulta a percepção e entendimento do processo por parte dos profissionais envolvidos, principalmente quando estes profissionais têm acesso apenas a uma visão geral do modelo. Desta forma, há necessidade de mecanismos para visualização e acompanhamento dos processos, fornecendo informações adequadas aos diferentes estados, abstraindo as informações relevantes tanto as fases presentes no processo de desenvolvimento quanto ao agente envolvido, além de facilitar a interação e o entendimento humano sobre os elementos do processo. Estudos afirmam que a maneira como são apresentadas as informações do modelo de processo pode influenciar no sucesso ou não do desenvolvimento do software, assim como facilitar a adoção da tecnologia pela indústria de software. Este trabalho visa contribuir nas pesquisas que buscam mecanismos e cientes para a visualização de processos de software apresentando a abordagem APSEE-Monitor destinada ao apoio a visualização de processos de software durante a sua execução. O principal objetivo desta pesquisa é apresentar um modelo formal de apoio a visualização de processos capaz de extrair dados de processos e organizá-los em sub-domínios de informações de interesse do gerente de processos. Neste trabalho aplica-se o conceito de múltiplas perspectivas como uma estratégia viável para a abstração e organização das informações presentes no modelo de processos. A solução proposta destaca-se por estender a definção original de perspectivas e fornecer uma estratégia de extração dos dados através de uma especificação formal utilizando o paradigma PROSOFT-Algébrico. Além disso, o trabalho apresenta um conjunto de requisitos relativos a interação entre gerentes de processos e PSEEs, a definição formal das perspectivas, uma gramática que define a linguagem de consulta aos processos, e um protótipo da aplicação.
Resumo:
Este trabalho propõe um modelo de forma reduzida livre de arbitragem para a extração de probabilidades de default a partir de spreads de Swaps de Crédito e aplica-o realizando uma análise da percepção de risco da dívida soberana brasileira confrontando dois momentos com contextos econômicos distintos. É utilizada uma modelagem paramétrica da estrutura temporal das probabilidades condicionais de default para a qual se testa duas formas funcionais distintas: Constante por Partes e Linear por Partes. Os resultados fornecem evidências que corroboram a aplicabilidade do modelo e indicam uma clara vantagem da modelagem Linear por Partes, por se ajustar melhor aos dados e possuir implicações convenientes na estrutura a termo das taxas de juros ajustadas ao risco de default.
Resumo:
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
Resumo:
Para a realização deste estudo, partiu-se da definição que hipoglicemia corresponde a uma taxa de glicose menor ou igual a 40mg/dl e hiperglicemia a uma concentração sangüínea de glicose maior que 120mg/dl. Foi realizado um estudo transversal, selecionando RNs com patologias potencialmente modificadoras da concentração de glicose e que deveriam ter suas glicemias monitorizadas e RNs com quadros clínicos os mais variados indicando a necessidade de coleta de sangue para sua assistência. A amostra de escolha para as dosagens de glicose é a venosa, porém há uma série de inconvenientes para se realizar essa determinação, uma vez que há necessidade de punção venosa, o que exige habilidade na execução devido ao diâmetro dos vasos e da própria fragilidade dos RNs, principalmente os prematuros, os quais constituem o grupo de maior risco para hipoglicemia. Outro problema que se observa é a demora em se obter os resultados, devido à estrutura da maioria dos nossos hospitais. Como existe no mercado um aparelho manual eletrônico que utiliza tiras-teste eletroquímicas capaz de dosar a glicemia capilar em 20 segundos, elaborou-se este estudo 19 trabalho para verificar se as determinações da glicemia em sangue capilar coincidiam com a realizada em sangue venoso (padrão-ouro), contribuindo assim para que o diagnóstico e o tratamento possam ser efetivados o mais precocemente possível. Foram estudados 177 exames, encontrando-se o seguinte: como desempenho do teste Precision Plus®, usando o ponto de corte tradicional para hipoglicemia (≤40) e (n=28), sensibilidade de 90,3 (IC 95%: 73,1 a 97,5) e especificidade de 88,4 (IC 95%: 81,7 a 92,9); como desempenho do teste Precision Plus®, usando o ponto de corte tradicional para hiperglicemia (≥120) e (n=17), sensibilidade 77,3 (IC 95%: 54,2 a 91,3) e especificidade 93,5 (IC 95%:88,1 a 96,7). Modificando o corte tradicional para taxas de 50 mg/dl e 100 mg/dl, respectivamente, hipo e hiperglicemia encontrou-se como desempenho do teste Precision Plus® para hipoglicemia (≤ 50), sensibilidade de 96,8 e especificidade de 82,9; como desempenho do teste Precision Plus® para hiperglicemia (≥100), sensibilidade de 95,5 e especificidade de 87,7. O desempenho do aparelho Precision Plus® no teste é adequado para realizar rastreamento de alterações glicêmicas nas populações de risco em UTIs, apesar das oscilações. Este método não deverá ser o indicado para tomadas de condutas terapêuticas. O método bioquímico deverá ser sempre utilizado para a confirmação da glicemia quando esta for realizada por métodos mais simples.
Resumo:
As ataxias espinocerebelares (SCAs) constituem um grupo de doenças neurodegenerativas fatais que apresentam uma grande heterogeneidade clínica. A doença de Machado-Joseph (DMJ), ou ataxia espinocerebelar tipo 3 (SCA3), é causada por uma expansão de uma seqüência repetitiva CAG em um gene, denominado MJD1, localizado no braço longo do cromossomo 14, expansão codificadora de uma seqüência poliglutamínica constituinte da proteína ataxina 3. Indivíduos normais apresentam entre 12 a 41 repetições, enquanto indivíduos afetados apresentam 61 a 84 repetições CAGs neste gene. Este trabalho teve como objetivos principais a padronização de metodologias moleculares para o identificação e a quantificação do número de repetições CAG no gene responsável pela da DMJ. Um grupo de 112 pacientes, pertencentes a 77 famílias, com suspeita clínica de algum tipo de ataxia espinocerebelar foi avaliado no Hospital de Clínicas de Porto Alegre. Após a extração de DNA destes pacientes, este material foi amplificado por PCR utilizando oligonucleotídeos iniciadores específicos para a região de interesse e posterior transferência destes fragmentos (1) para uma membrana de nylon pelo método de Southern blot, visando ao estabelecimento de um protocolo não-radioativo para detectar a presença do alelo normal e/ou mutante; e (2) análise em gel de poliacrilamida para quantificação do número de repetições presentes no alelo mutante. As análises laboratoriais identificaram um total de 77 pacientes com uma expansão CAG no gene da MJD1. Considerando-se apenas indivíduos não relacionados, a freqüência encontrada foi de 61% (47 indivíduos). Os protocolos estabelecidos demonstraram-se bastante eficazes e sensíveis para o diagnóstico da DMJ e quantificação do alelo expandido da respectiva doença.