75 resultados para manipulação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de apresentações multimídia sincronizadas para Web se baseia na definição e especificação de relações entre objetos advindos de diversas mídias, que possuem requisitos específicos de desempenho, estando ainda sujeitos à atrasos randômicos durante sua transmissão. Neste sentido, foram definidos modelos para especificação de sincronismo que têm por objetivo estruturar a ordenação destas aplicações de maneira a executar as relações definidas pelo autor quando da exibição coerente no destino. Este trabalho realiza um estudo dos principais modelos utilizados no desenvolvimento de apresentações multimídia sincronizadas, principalmente relacionando-se ao ambiente Web. Desta forma, tornando possível identificar características, vantagens e desvantagens de seus usos, bem como verificar que o Modelo de Expressões Intervalares é adequado a este trabalho, embora ainda apresente algumas deficiências no controle de mídias e interações do usuário. Finalmente, visando solucionar as deficiências encontradas no Modelo de Expressões Intervalares, foi desenvolvida uma proposta de extensão para o mesmo. Ela consiste na criação de um controlador para a interação do usuário e para a manipulação de mídias, chamado mídia invisível; e na definição do operador Sinc-Point, que proporciona ao autor maior flexibilidade na definição da sincronização. Esta proposta apresenta as seguintes vantagens: possibilita ao autor criar sincronizações do tipo “overlaps”, que baseia o disparo de uma mídia durante a apresentação de outra; possibilita ao autor realizar um controle sobre o intervalo para a interação do usuário e para a apresentação de mídias; mantém a consistência da apresentação; não acarreta muitas mudanças no modelo original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese analisa o talk show de Jô Soares, tendo como suporte teórico-metodológico a teoria semiótica narrativa e discursiva desenvolvida por Greimas e seus colaboradores. A análise objetiva apreender a construção do talk show, evidenciando os componentes que o engendram como uma unidade textual singular e mostrar o funcionamento do programa, a partir do reconhecimento dos mecanismos discursivos de manipulação que são utilizados como estratégias persuasivas para produzir o efeito espetáculo de entretenimento distenso, com o intuido de seduzir seus destinatários. A tese está dividida em cinco capítulos. Destacamos os capítulos 4 e 5 destinados à análise. No capítulo 4, a análise examina a organização narrativa do espetáculo do Jô, mostrando o conjunto de elementos que o constituem e destacando as perfomances actanciais do sujeito do fazer, como herói da narrativa. Esse capítulo procura mostrar o que é o show, o que ele diz. No capítulo 5, a análise mostra a estrutura da comunicação, da intersubjetividade, própria do nível discursivo, identificando a dimensão argumentativo-persuasiva que revela o esquema da manipulação, as estratégias discursivo-persuasivas utilizadas pelo manipulador, para construir um espetáculo em conformidade com os efeitos pretendidos. Nesse nível de análise, procura-se mostrar como o show faz para produzir os efeitos almejados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A escritora objeto desta tese, figura proeminente da literatura neozelandesa, voltou-se ao gênero autobiográfico após um longo percurso na área da ficção, para definir-se como uma primeira pessoa, depois de sua vida particular ter sido insistentemente confundida com sua obra por parte da crítica. Uma questão que logo vem à tona é que praticamente toda ficção resulta ser, até um certo grau, fundamentalmente autobiográfica e que a análise crítica da obra de um escritor possibilita o conhecimento de sua vida. Nosso argumento, opondo-se a esse pressuposto, parte da vida para melhor compreender a obra, evidenciando que Janet Frame manteve um grande distanciamento entre os eventos reais e sua ficcionalização, realizando uma tarefa que a coloca lado a lado dos nomes mais ilustres da literatura ocidental do século XX. Numa atitude comparatista, procuramos extrair os diversos processos de transmutação estética realizados pela escritora, buscando sanar algumas distorções que impediram uma análise mais confiável de sua obra, problematizando, entre outros aspectos, a questão do gênero autobiográfico, da mímese e do realismo ficcional. A manipulação artística da vida particular de Janet Frame foi resgatada por um conjunto de processos, entre os quais a antimímese, a poetização do quotidiano, a intertextualidade e a interdiscursividade, que revelam um alcance estético e uma auto-referencialidade deslocada muito além do mero biografismo. Outros aspectos analisados na obra como um todo indicam que novas abordagens da ficção de Janet Frame, a partir de enfoques pós-modernos, pós-coloniais, pós-estruturalistas e feministas podem superar as posturas reducionistas das quais ela foi alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram utilizados metais pesados e colimetrias como indicadores biológicos, na avaliação da qualidade do pescado artesanal do Lago Guaíba, localizado junto à região metropolitana de Porto Alegre, capital do Estado do Rio Grande do Sul (Brasil), visando oferecer subsídios para discussão da qualidade de vida dos pescadores artesanais, de suas famílias e dos consumidores deste pescado, bem como fundamentar decisões de políticas públicas. Exemplares de, Leporinus obtusidens (Characiformes, Anostomidae) (Valenciennes, 1847) “Piava” (denominação local) e de Pimelodus maculatus (Siluriformes, Pimelodidae) (Lacèpéde, 1803), “Pintado” (denominação local), foram capturados por pescadores cooperativados, em três pontos do referido Lago a saber: Delta do Jacuí, Canal de Navegação e Lagoa. As amostras foram colhidas entre junho de 2000 a setembro de 2001. Foram avaliadas, quanto a presença de mercúrio, 27 exemplares de Leporinus obtusidens e 27 de Pimelodus maculatus. Os níveis de mercúrio foram determinados por espectrofotometria de absorção atômica e, excetuando-se duas amostras de Piava, os níveis de mercúrio estavam abaixo de 0,5µg/g, limite tolerado pela legislação vigente no Brasil para peixes não predadores. A média encontrada nos Pintados (0,216 mg/kg) é significativamente maior (p<0.001), quando comparada à das Piavas (0,094 mg/kg). Presume-se como hipótese o fato dos Pintados serem peixes de nível trófico elevado e as Piavas, por sua vez, de nível trófico baixo. Também foram avaliadas, quanto a presença de arsênio, 27 amostras de Leporinus obtusidens 27 de Pimelodus maculatus. Os níveis de arsênio foram determinados por espectrofotometria de absorção atômica. Os níveis encontrados estavam abaixo de 1,0 mg/kg, limite tolerado pela legislação vigente no Brasil para peixes e seus produtos. A média encontrada nos Pintados foi de 0,142 mg/kg e nas Piavas de 0,144 mg/kg. Na mesma ocasião, foram avaliadas quanto a presença de coliformes totais, fecais e Escherichia col, 43 amostras de Leporinus obtusidens e 43 de Pimelodus maculatus. Os níveis colimétricos totais e fecais foram determinados segundo Brasil. Ministério da Agricultura (1992), utilizando-se a técnica dos Números Mais Prováveis. A presença de E. coli foi confirmada pelo teste do Indol. A média dos coliformes fecais é significativamente maior nos Pintados quando comparado com as Piavas (p = 0,043). Em relação a E. coli existe diferença significativa entre a Piava e o Pintado (p=0,040). O Pintado é significativamente mais contaminado que a Piava. Das Piavas analisadas 4,65 % estavam acima dos níveis permitidos pela legislação brasileira para coliformes fecais e dos Pintados, 11,62 % das amostras também estavam fora destes limites. Em 23,25 % das amostras de Piava e 44,18% de Pintados foi constatada a presença de E. coli. Não houve diferença nos resultados quanto aos pontos de captação do pescado. Os valores encontrados no presente trabalho indicam a necessidade de maior atenção às boas práticas de higiene desde a captura, manipulação e processamento do pescado, preservando-se o ambiente e as condições sociais, culturais e mesmo artesanais envolvidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma amostra de 30 radiografias mesiorradiais prémolares superiores, contendo um instrumento endodôntico em cada um de seus condutos, obtidas com a finalidade de odontometria, foi avaliado se a manipulação digital pela aplicação de filtros grráficos de inversão, pseudocolorização e relevo, favorece ou não a localização do ápice radiográfico.As imagens convencionais foram digitalizadas através de scanner em 300 dpi e 256 tons de cinca, tamanho original e ajuste automático de brilho e contraste, reproduzidas três vezes e submetidas aos filtros gráficos. Uma seqüência aleatória de todas as imagens foi apresentada em monitor, em condições padronizadas de visualização, a um observador habituado à utilização de imagens digitais que, através de régua eletrônica da barra de ferramentas do programa PhotoshopR, efetuou a medida da distância entre a borda superior da imagem e o limite apical para ambas as raízes, três vezes em oportunidades distintas. As quatro imagens de cada dente foram montadas em apresentação do programa PowerPointR e exibidas, com os mesmos critérios de padronização, para três observadores especialistas em endodontia, os quais qualitativamente em qual delas o limite apical de cada raiz era melhor visualizado. Através dos resultados do teste não-paramétrico de Friedman verificou-se que os valores médios para as imagens manipuladas não diferem significativamente daqueles obtidos sobre a imagem (p=0,001), onde se observa o maior coeficiente de variação. A imagem e sua versão em negativo foram classificadas como as melhores de forma mais consistente. A modalidade pseudocores e relevo receberam os piores escores, porém não de modo consistente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é realizar a concepção de um sistema para a aprendizagem de demonstrações da Geometria Euclidiana Plana e a implementação de um protótipo deste sistema, denominado LEEG - Learning Environment on Euclidean Geometry, desenvolvido para validar as idéias utilizadas em sua especificação. Nos últimos anos, tem-se observado uma crescente evolução dos sistemas de ensino e aprendizagem informatizados. A preocupação com o desenvolvimento de ambientes cada vez mais eficientes, tanto do ponto de vista computacional quanto pedagógico, tem repercutido em um salto de qualidade dos software educacionais. Tais sistemas visam promover, auxiliar e motivar a aprendizagem das mais diversas áreas do conhecimento, utilizando técnicas de Inteligência Artificial para se aproximarem ao máximo do comportamento de um tutor humano que se adapte e atenda às necessidades de cada aluno. A Geometria pode ser vista sob dois aspectos principais: considerada como uma ciência que estuda as representações do plano e do espaço e considerada como uma estrutura lógica, onde a estrutura matemática é representada e tratada no mais alto nível de rigor e formalismo. Entretanto, o ensino da Geometria, nos últimos anos, abandonou quase que totalmente sua abordagem dedutiva. Demonstrações de teoremas geométricos não são mais trabalhadas na maioria das escolas brasileiras, o que repercute em um ensino falho da Matemática, que não valoriza o desenvolvimento de habilidades e competências relacionadas à experimentação, observação e percepção, realização de conjecturas, desenvolvimento de argumentações convincentes, entre outras. Levando-se em conta este cenário, desenvolveu-se o LEEG, um sistema para a aprendizagem de demonstrações geométricas que tem como objetivo auxiliar um aprendiz humano na construção de demonstrações da Geometria Euclidiana Plana. O sistema foi modelado sobre uma adaptação do protocolo de aprendizagem MOSCA, desenvolvido para suportar ambientes de ensino informatizados, cuja aprendizagem é baseada na utilização de exemplos e contra-exemplos. Este protocolo propõe um ambiente de aprendizagem composto por cinco agentes, dentre os quais um deles é o aprendiz e os demais assumem papéis distintos e específicos que completam um quadro de ensino-aprendizagem consistente. A base de conhecimento do sistema, que guarda a estrutura lógica-dedutiva de todas as demonstrações que podem ser submetidas ao Aprendiz, foi implementada através do modelo de autômatos finitos com saída. A utilização de autômatos com saída na aplicação de modelagem de demonstrações dedutivas foi extremamente útil por permitir estruturar os diferentes raciocínios que levam da hipótese à tese da proposição de forma lógica, organizada e direta. As demonstrações oferecidas pelo sistema são as mesmas desenvolvidas por Euclides e referem-se aos Fundamentos da Geometria Plana. São demonstrações que priorizam e valorizam a utilização de objetos geométricos no seu desenvolvimento, fugindo das demonstrações que apelam para a simples manipulação algébrica e que não oferecem uma construção significativa do ponto de vista da Geometria. Porém, mesmo sendo consideradas apenas as demonstrações contidas em Elements, todos os diferentes raciocínios para uma mesma demonstração são aceitos pelo sistema, dando liberdade ao aprendiz no processo de construção da demonstração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como explicar o fato de estarmos em um mundo que ao mesmo tempo em que desafia todos os limites na manipulação da natureza valoriza as coisas “naturais” na mesma proporção? Qual é a “natureza” recorrentemente invocada no fenômeno de “volta ao natural” das ultimas décadas? A partir da constatação deste paradoxo, neste trabalho tenta-se fazer uma análise sociológica das especificidades da construção social da idéia de natureza no mundo contemporâneo. A tese sustentada é que a revalorização do natural acontece pela busca de um “refugio” de confiança perante as incertezas criadas pela proliferação e a exacerbação dos riscos. No obstante isto, o que se entende por natureza nessa revalorização obedece a definições sociais, contendo, paradoxalmente, as “arbitrariedades” próprias da atividade humana das quais tal revalorização da natureza tenta se livrar. O trabalho apóia-se numa análise da produção de alimentos “naturais” pelos movimentos de agriculturas alternativas críticas dos métodos convencionais da agricultura moderna e portadores de visões de natureza diferenciadas. Do ponto de vista empírico, realiza-se um estudo comparativo dos campos sociais da agricultura “ecológica” e “orgânica” no Rio Grande do Sul e na Argentina, verificando como diferentes condicionantes sociais conduzem a construções diferenciadas do que é considerado “natural”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A estimulação neonatal tem sido utilizada como modelo experimental para examinar os mecanismos pelos quais variações precoces do ambiente do animal afetam o desenvolvimento de sistemas neurais, dando origem a alterações comportamentais e neuroendócrinas duradouras. Buscou-se estudar os efeitos do estresse neonatal sobre duas abordagens: comportamental e imunoistoquímica. Na primeira, foram avaliados em ratos adultos (90-110 dias) dois paradigmas de medo: inato (campo aberto, N=48) e aprendido, (condicionamento clássico N=48); enquanto na segunda abordagem realizou-se a técnica imunoistoquímica (N=15) na substância nigra compacta (SNCo) e área tegmental ventral (VTA) para detecção da enzima precursora da dopamina, a tirosina hidroxilase (TH). Foram utilizados ratos da variedade Wistar, que do 1º ao 10º dia de vida foram submetidos a 3 tipos de intervenção: manipulação (retirados do ninho por 3min sendo tocados gentilmente por 1 min); separação (retirados do ninho por 3h, e mantidos a temperatura de 33ºC); e grupo controle (sem intervenções do experimentador ou do tratador). O condicionamento clássico (treino) foi constituído por 10 pareamentos de 1 estímulo incondicionado (EI, choque elétrico –0,8mA) com 2 estímulos condicionados ou neutros (EC, som e luz) em 2 sessões de 5 pareamentos cada. A duração de cada emissão do EC foi de 5s sendo no último segundo associada ao EI. O teste foi realizado 24h após o treino, e consistiu de emissões de EC com mesma duração e intervalo por um período total de 30 min. No experimento 2, foi utilizado um campo aberto de 1m2 no qual os ratos permaneceram por 5 min. Em ambos experimentos os comportamentos eram registrados em vídeo e analisados através do programa Noldus. Os resultados (X±EPM) foram analisados por uma ANOVA, post-hoc Newman Keuls ou Kruskal Wallis post-hoc Dunn (p<0,05). Nos experimentos comportamentais foram observados os seguintes resultados: no medo aprendido houve diminuição da duração (s) do comportamento de imobilização (491±54); da duração de rearing (58±13) e da latência para extinção do condicionamento do grupo manipulado (591±434) comparado ao controle (718±73; 22±6; 1020±843 respectivamente) e no campo aberto houve aumento da duração e freqüência da locomoção e rearing (97.6±8; 4.3±1 e 64.3±5; 31±2), diminuição da duração de autolimpeza (4.2±1) e aumento da freqüência de entradas no centro do campo aberto (4.3±0,8) no grupo manipulado comparado ao controle (69±7; 30±3 e 48±6; 21.5±2; 19±5; 2.2±0.6, respectivamente). Na análise Imunoistoquímica não foram detectadas diferenças significativas entre os grupos quanto imunomarcação de TH nas áreas estudadas. Foi confirmada a diminuição da inibição comportamental no campo aberto como conseqüência da manipulação. A manipulação neonatal também reduziu as respostas do medo condicionado, ratos manipulados no período neonatal expressam, quando adultos, menor expressão de medo aprendido e tem a extinção da aprendizagem aversiva mais acelerada. Curiosamente não foram observados efeitos da separação materna sobre as repostas de medo inato ou aprendido. Embora a dopamina do sistema mesocorticolímbico module as respostas comportamentais alteradas, nenhum dos modelos de intervenção estudados afetaram a intensidade de marcação deste neurotransmissor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O espessamento intimal e a reestenose que ocorrem após os procedimentos de angioplastia transluminal percutânea e/ou o implante de stents representam uma causa freqüente de falência destes procedimentos. O principal achado patológico responsável pela reestenose parece ser a hiperplasia intimal, já que o dispositivo intravascular é resistente ao remodelamento arterial geométrico. O propósito deste estudo é avaliar, através da morfometria digital, o espessamento intimal presente nas regiões da parede arterial imediatamente proximal e distal ao implante de um stent metálico em configuração em “Z “ não recoberto ou recoberto com PTFE. Vinte e cinco suínos de raça mista, com seis a dez semanas de idade, pesando em média 20 kg foram divididos em três grupos. No grupo I, cinco animais foram submetidos à exposição cirúrgica retroperitoneal da aorta abdominal, aortotomia e manipulação com uma bainha introdutora de 12 F. O grupo II incluiu dez animais que foram submetidos ao implante de um stent metálico auto-expansível não recoberto. No grupo III, incluindo também dez animais, foram implantados stents recobertos com PTFE. Após quatro semanas, todos os animais foram sacrificados e o segmento aorto-ilíaco foi removido. Quatro animais foram excluídos do estudo por trombose da aorta (um animal do grupo II e três animais do grupo III). Para a análise morfométrica foram utilizados os testes não paramétricos de Wilcoxon e de Kruskal-Wallis, para as comparações, respectivamente, no mesmo grupo e entre os grupos. Foi adotado o nível de significância de 5% ( p< 0,05). Quando os espécimes da parede arterial, imediatamente proximal e distal aos stents foram comparados, nenhuma diferença estatisticamente significativa foi encontrada entre as áreas luminal, intimal, média ou índice intimal em cada grupo. Na comparação entre os grupos, as áreas intimal, média e o índice intimal não demonstraram variação estatisticamente significativa. Foram identificadas diferenças entre os grupos quanto às áreas luminais proximais (p = 0,036) e distais (p=0,044). Pelo teste de comparações múltiplas para Kruskal-Wallis (Teste de Dunn) identificou-se diferença significativa entre os grupos I e II. Entretanto, quando estas variáveis foram controladas pelo fator peso (relação área luminal/peso) a diferença não foi mais observada. Concluímos que, após quatro semanas, stents recobertos com PTFE induzem um espessamento intimal justa-stent similar ao observado com stents não recobertos ou com a simples manipulação arterial com uma bainha introdutora. Neste modelo experimental suíno, de curto seguimento, o revestimento com PTFE não foi responsável por adicional espessamento intimal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O volume de informações armazenadas e representadas em XML cresce rapidamente, abrangendo desde a Web até bancos de dados corporativos. Nesse contexto, surge a necessidade de mecanismos de recuperação de dados nesse formato que sejam, ao mesmo tempo, mais eficientes e mais eficazes. Várias propostas de linguagens de consulta têm sido feitas, dentre as quais podem ser citadas XQL, XML-QL e Quilt. Essas linguagens, todas textuais, são mais indicadas para manipulação programática ou para usuários experientes. Visando atingir também os usuários menos experientes, foram propostas linguagens visuais, tais como XML-GL e Xing. Todas essas linguagens, entretanto, apresentam duas características comuns: a) o usuário precisa conhecer, pelo menos em um certo nível, a estrutura interna dos documentos; b) a mesma informação, se armazenada de formas diferentes, exige instruções de consulta diferentes. A solução para esses problemas apresentada neste trabalho envolve a utilização de um modelo conceitual para representar os conceitos e as relações entre conceitos que ocorrem em documentos XML pertencentes a um determinado domínio de problema. O modelo conceitual é representado por uma ontologia do domínio do problema. Essa associação permite que consultas possam ser elaboradas tendo como base os conceitos da ontologia. Para permitir a associação da ontologia a conjuntos de documentos XML, apresentam-se regras de mapeamento que permitem definir se um documento XML é compatível com uma determinada ontologia. A partir dessa definição, propõe-se uma linguagem visual para consultas a documentos XML com base em ontologias, e apresenta-se uma proposta de interface visual para essa linguagem.