16 resultados para Padrão Unesp
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A sensação de dor é mediada por diferentes sistemas de transmissão, os quais estão continuamente sendo integrados e modulados por diversos mecanismos neurais, agindo em diferentes períodos de tempo. Para o estudo da dor neuropática, um dos modelos mais empregados é a lesão nervosa periférica, sendo que a maioria desses estudos é realizada em mamíferos. Apesar da ausência de um arranjo laminar, a medula espinal de anfíbios apresenta muitas similaridades anatômicas e funcionais com a dos mamíferos. Por isso, o estudo desses animais pode fornecer subsídios adicionais para compreensão dos mecanismos da transmissão nociceptiva, além de esclarecer os aspectos evolutivos envolvidos na mesma. No presente trabalho foi analisado o padrão de imunorreatividade ao neuropeptídeo Y (NPY), peptídeo relacionado ao gene da calcitonina (CGRP), somatostatina (SOM) e ácido γ-aminobutírico (GABA) em medula espinal lombossacral de rãs Rana catesbeiana em condições basais e após a secção do nervo ciático. Para isso, foram utilizados animais adultos, de ambos os sexos, os quais foram divididos em grupos controle (animais em condições basais) e experimental (animais submetidos à secção do nervo ciático). Para o estudo da imunorreatividade ao NPY, os animais desnervados foram sacrificados 3, 7 e 15 dias após a secção do nervo ciático. Para CGRP, SOM e GABA os intervalos de tempo considerados foram de 3, 5, 8 e 15 dias após a axotomia. A técnica imunoistoquímica utilizada foi a de Sternberger (1979), sendo utilizados anticorpos primários do tipo policlonal nas concentrações de 1:1000 (GABA e neuropeptídeo Y), 1:500 (somatostatina) e 1:100 (CGRP). A imunorreação foi semi-quantificada através de densitometria óptica. A intensidade dos produtos de reação foi comparada entre os lados ipsilateral e contralateral à lesão e com o grupo controle. Os resultados obtidos nos animais controle foram semelhantes aos descritos anteriormente para os anfíbios. A maior intensidade de imunorreação ocorreu na parte dorsal do funículo lateral para todas as substâncias neuroquímicas consideradas. Imunorreatividade ao GABA, NPY e SOM ainda foram observadas ao longo do funículo lateral e no funículo ventral. Na substância cinzenta, o corno dorsal apresentou maior imunorreatividade quando comparado ao ventral, sendo esta uma característica comum entre as substâncias neuroquímicas consideradas no presente estudo. Neurônios bitufted imunorreativos para GABA, NPY e SOM foram detectados na banda mediolateral. No corno ventral, neurônios motores apresentaram imunorreação à SOM, ao CGRP e ao GABA, sendo neste último de fraca intensidade. Após a desnervação periférica não houve variação no padrão de distribuição da imunorreatividade à SOM e ao CGRP. Entretanto, a axotomia causou uma redução significativa na imunorreatividade ao GABA na parte dorsal do funículo lateral no lado ipsilateral à lesão. Essa diminuição foi evidenciada 3 dias após a desnervação, persistindo aos 5, 8 e 15 dias após a secção do nervo ciático. A imunorreatividade ao NPY apresentou inicialmente (3 e 7 dias após a axotomia) um aumento bilateral na intensidade de reação. Porém, 15 dias após a desnervação periférica, houve uma queda na imunorreatividade ao NPY, a qual também foi evidenciada bilateralmente. Esses resultados sugerem o envolvimento das substâncias neuroquímicas abordadas neste estudo no processamento das informações sensoriais de rãs Rana catesbeiana. Todavia, ainda é especulativa a participação das mesmas nos mecanismos de transmissão e codificação da nocicepção nesses animais. Estudos complementares são necessários para o esclarecimento dessas questões. Todavia, pode-se afirmar que o corno dorsal desses animais apresenta uma circuitaria complexa, onde diferentes sistemas de neurotransmissores e/ou neuromoduladores interagem para a modulação dos sinais nociceptivos, semelhante ao que é descrito para os mamíferos.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
O presente trabalho é um estudo histórico-descritivo sobre as diferentes formas de financiamento da agricultura e de suas relações com as políticas macroeconômicas adotadas no Brasil no período 1965-97. Buscaram-se mostrar as mudanças que ocorreram no padrão de financiamento da agricultura e se as diferentes formas de financiamento agrícola foram coerentes com os objetivos das políticas macroeconômicas. O padrão de financiamento da agricultura brasileira evoluiu e adaptou-se ao contexto econômico do país em cada fase da sua história. As diferentes formas de financiar a agricultura estão associadas aos interesses políticos e econômicos de cada etapa do desenvolvimento brasileiro, havendo coerência entre as políticas macroeconômicas e as políticas agrícolas durante todo o período. O processo de modernização e industrialização da agricultura teve o seu desenvolvimento sustentado no crédito agrícola, por intermédio do financiamento de máquinas, implementos e insumos que foram produzidos pelo setor industrial. Com a crise fiscal presente no país desde os anos 80, os recursos oriundos do Governo Federal passaram a ser substituídos por recursos dos Governos Estaduais e Municipais e pela iniciativa privada.
Resumo:
Este trabalho apresenta uma extensão do padrão ODMG para o suporte ao versionamento de objetos e características temporais. Essa extensão, denominada TV_ODMG, é baseada no Modelo Temporal de Versões (TVM), que é um modelo de dados orientado a objetos desenvolvido para armazenar as versões do objeto e, para cada versão, o histórico dos valores dos atributos e dos relacionamentos dinâmicos. O TVM difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais (sem tempo e versões), o que permite a integração desse modelo com outras modelagens existentes. Neste trabalho, os seguintes componentes da arquitetura do padrão ODMG foram estendidos: o Modelo de Objetos, a ODL (Object Definition Language) e a OQL (Object Query Language). Adicionalmente, foi desenvolvido um conjunto de regras para o mapeamento do TV_ODMG para o ODMG a fim de permitir o uso de qualquer ODBMS para suportar a extensão proposta.
Resumo:
Internet. Desde a versão 2.0 do HTML, entretanto, pouco foi melhorado no modelo de formulários proposto. Ao mesmo tempo, as necessidades dos desenvolvedores e os requisitos dos usuários cresceram dramaticamente. O W3C apontou uma resposta para as necessidades levantadas, o padrão XForms. O padrão XForms visa substituir o modelo de formulários definido no HTML por um modelo que separa o propósito da apresentação, adicionando, desta forma, a característica de independência de plataforma. A proposta deste trabalho é analisar o padrão XForms em relação à utilização de formulários HTML tradicionais, e à outras soluções existentes para automação de formulários na Internet, utilizando para isto uma aplicação piloto que procure utilizar alguns dos principais recursos disponíveis no padrão. Os pontos fortes, pontos fracos, dificuldades e lições aprendidas capturadas durante o desenvolvimento da aplicação piloto formam uma base de conhecimento apresentada neste trabalho.
Resumo:
Atualmente, a consciência de que os recursos naturais são esgotáveis e que a geração de poluentes deve ser evitada para impedir um sério problema ambiental, são aspectos que já estão sendo considerados na indústria química. Isto se reflete em uma das principais preocupações enfrentadas por este setor: a minimização de efluentes. O presente trabalho tem por objetivo desenvolver um problema padrão na área de integração mássica para recuperação de água de processos, sugerindo uma metodologia que ajude a solucionar esta grande preocupação. O problema padrão proposto é suficientemente simples para sua rápida compreensão, e complexo o suficiente para representar uma típica situação industrial. Na metodologia empregada, técnicas de integração mássica como: reuso, reciclo e regeneração são utilizadas, alternativamente ao tratamento de final de tubulação, a fim de reduzir a demanda de água consumida e minimizar a quantidade de efluente líquido tratado e descartado. A síntese da rede de integração mássica foi feita através da construção de uma superestrutura, contendo todas as possíveis configurações em potencial para o sistema proposto. A solução do problema foi obtida via programação não linear mista inteira (MINLP). Um estudo comparativo entre as diversas configurações obtidas foi realizado. Uma análise da operabilidade das principais configurações da rede de integração mássica foi feita para garantir que a rede sintetizada seja operável.
Resumo:
Esta dissertação apresenta um modelo conceitual do padrão de comportamento de pedestres em travessias semaforizadas. O modelo propõe uma estrutura de classificação dos pedestres de acordo com suas atitudes ao atravessar uma via. A análise envolve a consideração de fatores que podem influenciar as decisões dos pedestres sobre onde e quando iniciar a trajetória de travessia. O uso adequado das travessias semaforizadas é definido como conformidade de travessia. A conformidade de travessia pode ser de dois tipos: espacial, relacionada à localização em que o pedestre atravessa a via e, temporal, relacionada ao momento em que o pedestre decide iniciar a travessia. O modelo conceitual foi aplicado na área central da cidade de Porto Alegre. Com o objetivo de estimar as conformidades de travessia foram realizadas modelagens com redes neurais artificiais. Esta ferramenta proporciona o entendimento de problemas com alto grau de complexidade, que agregam variáveis com relações não-lineares entre si. As variáveis utilizadas na modelagem foram (i) gap máximo, (ii) gap crítico, (iii) 85° percentil de gaps, (iv) volume de pedestres, (v) volume de veículos, (vi) velocidade de veículos, (vii) largura da via, (viii) largura da travessia e, (ix) tempo de espera pelo verde no semáforo. Os resultados demonstraram que as características particulares de cada local têm influência nas conformidades de travessia. As análises de sensibilidade dos modelos indicaram que as variáveis relacionadas às características locais de geometria e condições de entorno das travessias exercem maior influência sobre a conformidade de travessia espacial. Por outro lado, a modelagem indicou que as características do regime do tráfego são os aspectos mais importantes na determinação da conformidade de travessia temporal.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
A radioproteção dos pacientes submetidos a exames radiográficos está diretamente ligada à qualidade e à repetição das radiografias realizadas. Esta dissertação é apresentada sob a forma de três artigos. O artigo I avaliou a qualidade de 300 radiografias panorâmicas enviadas a clínicas de ortodontia. As radiografias foram classificadas como excelentes (não se observam erros), aceitáveis para diagnóstico (observam-se erros, contudo os mesmos não impedem o diagnóstico) e inaceitáveis (imagem sem valor diagnóstico). Um total de 16,33% das radiografias foi considerado excelente, 78,66% aceitáveis para o diagnóstico e 5% inaceitáveis. Encontrou-se uma média de 1.54 erros por radiografia, sendo os mais freqüentemente encontrados a falta de contato da língua com o palato (21%), aparecimento de imagens fantasma (19,66%), mento inclinado para cima (15,66%), paciente à frente do plano de foco (13,33%), cabeça girada (13,33%), imagens com alta densidade (10,33%) e com baixa densidade (8,66%). Concluiu-se que os padrões de qualidade da amostra estão de acordo com o preconizado em Guidelines on Radiology Standards for Primary Dental Care, segundo os quais se admite até 10% de imagens inaceitáveis. Contudo, cabe salientar que não se conhece o índice de repetições nas clínicas onde as radiografias da amostra foram obtidas e, tendo passado por um controle de qualidade prévio, todas as imagens deveriam ser classificadas como excelentes ou aceitáveis. O artigo II avaliou a freqüência dos erros que levaram à repetição de radiografias panorâmicas realizadas no Serviço de Radiologia da FO-UFRS. O livro de registros do Serviço mostrou um total de 3815 radiografias panorâmicas realizadas no período de junho de 2002 a junho de 2005. No mesmo período o Serviço apresentou 330 radiografias panorâmicas repetidas, resultando em índice de repetição de 8,65% dos exames. Os erros mais freqüentemente encontrados foram: paciente posicionado à frente do plano de foco (25,15%); cabeça girada para direita ou esquerda (24,84%); cabeça inclinada para frente (21,21%); paciente posicionado atrás do plano de foco (20,30%); imagem com a alta densidade (19,69%); imagem com baixa densidade (17,27%); imagem com baixo contraste (16,96%); imagem com alto contraste (12,72%); cabeça inclinada para direita ou esquerda (12,42%); corte do côndilo na radiografia (11,21); corte do mento na radiografia (8,48%); ausência de contato da língua com o palato (7,27%); paciente se moveu durante a exposição (4,94%); cabeça inclinada para trás (2,72%) e aparecimento de imagem fantasma (2,12%). Encontrou-se uma média de 2,07 erros por radiografia. Conclui-se que os erros mais freqüentemente cometidos foram classificados como erros de posicionamento do paciente e que o Serviço de Radiologia da FO-UFRGS apresenta um índice de repetição de radiografias panorâmicas satisfatório, estando de acordo com os padrões de qualidade estabelecidos pelo Guidelines on Radiology Standards for Primary Dental Care. O artigo III teve por objetivo verificar o efeito da radiação emitida em radiografias panorâmicas sobre as células da borda lateral direita da língua, através da avaliação das alterações nucleares, antes e depois da exposição aos raios X. A amostra foi constituída de 42 indivíduos adultos jovens do gênero masculino, sendo 22 deles pertencentes ao grupo que realizou uma radiografia panorâmica (grupo I) e os outros 20 pacientes pertencentes ao grupo II, que realizou duas radiografias panorâmicas. O exame citopatológico das células esfoliadas da mucosa da língua foi realizado antes da incidência radiográfica e 10 dias após. As células foram obtidas através da raspagem e as lâminas foram coradas pela técnica de Feulgen. Para observação das alterações citopatológicas foram analisadas 2.000 células em cada lâmina e quantificados os micronúcleos, buds, broken eggs, cariorrexes e células binucleadas. As lâminas foram analisadas por um único observador. Constatou-se que existe diferença significativa (p=0,01) para as variáveis broken egg, bud, cariorrexe e célula binucleada antes e depois da exposição à radiação ionizante. Na comparação entre os grupos, verificou-se que as variáveis cariorrexe e célula binucleada apresentaram diferença significativa (p=0,01), ambas com valores superiores para o grupo II.
Resumo:
O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.