977 resultados para característica de limiar


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivos: Testar a hipótese de que a mucosa do intestino delgado proximal de crianças com diarréia persistente apresenta alterações morfométricas e estereológicas proporcionais ao estado nutricional. Métodos: estudo transversal, incluindo 65 pacientes pediátricos internados no período de maio de 1989 a novembro de 1991, com idade entre 4 meses e 5 anos , com diarréia de mais de 14 dias de duração, que necessitaram realizar biópsia de intestino delgado como parte do protocolo de investigação. A avaliação nutricional foi realizada pelos métodos de Gomez, Waterlow e pelos escores z para peso/ idade (P/I), peso/estatura (P/E) e estatura/idade (E/I), divididos em: eutróficos = z ≥ 2 DP e desnutridos z < -2dp; eutróficos = z ≥ 2 DP, risco nutricional = z < -1DP e desnutridos = z < -2DP; e de maneira contínua em ordem decrescente, utilizando-se as tabelas do NCHS. A captura e análise das imagens por programa de computador foi efetuada com o auxílio do patologista. Nos fragmentos de mucosa do intestino delgado, foram medidas a altura dos vilos, a profundidade das criptas, a espessura da mucosa, a espessura total da mucosa e a relação vilo/cripta, com aumento de 100 vezes. Com aumento de 500 vezes, foram medidas a altura do enterócito, a altura do núcleo e do bordo em escova. O programa computadorizado utilizado foi o Scion Image. A análise estereológica, foi feita com o uso de arcos ciclóides. Resultados: Para os escores z P/I, P/E e E/I, divididos em duas categorias de estado nutricional, não houve diferença estatisticamente significante quanto às medidas da altura dos vilos, profundidade das criptas, espessura da mucosa, espessura total da mucosa e relação vilo/cripta. A altura do enterócito foi a característica que apresentou maior diferença entre os grupos eutrófico e desnutrido, para os índices P/I e P/E, em 500 aumentos, sem atingir significância estatística. Quando os escores z foram divididos em 3 categorias de estado nutricional, a análise morfométrica digitalizada mostrou diferença estatisticamente significante para a relação vilo/cripta entre eutróficos e desnutridos leves e entre eutróficos e desnutridos moderados e graves (p=0,048). A relação vilo/cripta foi maior nos eutróficos. A avaliação nutricional pelos critérios de Waterlow e a análise estereológica não mostraram associação com o estado nutricional. Pelo método de Gomez, houve diferença estatisticamente significante para a altura do enterócito entre eutróficos e desnutridos de Grau III: quanto maior o grau de desnutrição, menor a altura do enterócito (r= -.3330; p = 0,005). As variáveis altura do enterócito, altura do núcleo do enterócito e do bordo em escova apresentaram uma clara associação com os índices P/I (r=0,25;p=0,038), P/E (r=0,029;p=0,019) e com o critério de avaliação nutricional de Gomez (r=-0,33;p=0,007), quando foram avaliadas pelo coeficiente de correlação de Pearson. A altura do núcleo mostrou associação com o índice P/I (r=0,24;p=0,054). A altura do bordo em escova mostrou associação com o índice P/I (r=0,26;p=0,032) e a avaliação nutricional de Gomez (r=-0,28;p=0,020). Conclusões: As associações encontradas entre o estado nutricional - avaliado de acordo com Gomez e os índices P/I e P/E - e as variáveis da mucosa do intestino delgado mostraram relação com o peso dos pacientes. Embora estas associações tenham sido de magnitude fraca a moderada, há uma tendência à diminuição do tamanho do enterócito, seu núcleo e seu bordo em escova à medida que aumenta o grau de desnutrição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram estudadas, pelo método da assinatura digital, 35 biópsias esofágicas provenientes de pacientes da província de Linxian, China, classificadas por dois observadores com ampla experiência em patologia gastrointestinal como normais, displasias ou carcinomas (8 casos normais, 6 displasias leves, 8 displasias moderadas, 4 displasias acentuadas, 4 carcinomas suspeitos de invasão e 5 carcinomas invasores). O objetivo do trabalho foi caracterizar os núcleos das populações celulares desses casos de forma que permitisse a derivação de informações diagnósticas e de possível implicação prognóstica a partir do estudo quantitativo das características nucleares de cada caso ou categoria diagnóstica. As biópsias foram coradas pelo método de Feulgen, sendo então selecionados e digitalizados 48 a 50 núcleos de cada uma delas. De cada núcleo foram extraídas 93 características cariométricas, arranjadas arbitrariamente em histograma designado como assinatura nuclear. Da média aritmética de cada característica dos núcleos de uma mesma biópsia resultou a assinatura digital do caso. A análise de funções discriminantes, baseada nas 15 características cariométricas que ofereceram melhor discriminação entre as categorias diagnósticas, mostrou que o grupo classificado como normal foi claramente distinto das demais categorias. A densidade óptica total aumentou progressivamente segundo a classificação das biópsias, do normal à displasia acentuada, sendo o valor do carcinoma semelhante ao da displasia moderada. A matriz de comprimento de seqüência apresentou o mesmo perfil, ou seja, ambas as características ofereceram discriminação clara entre as categorias diagnósticas, com exceção do carcinoma invasor, cujos valores foram superponíveis aos da displasia moderada. O estudo demonstrou a viabilidade da quantificação de características nucleares através das assinaturas nucleares digitais, que demonstraram diferenças estatisticamente significativas entre diferentes categorias diagnósticas e a elevação progressiva dos valores mensurados relacionados com o espectro das lesões, apresentando-as como um histograma (assinatura digital nuclear).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sabe-se que a fala é a principal maneira de comunicação entre as pessoas. A Síntese de fala (geração automática da fala pelo computador) tem recebido atenção da comunidade acadêmica e profissional por várias décadas. Ela envolve a conversão de um texto de entrada em fala, usando algoritmos e algumas formas de fala codificada. O texto pode ser digitado pelo teclado ou obtido por reconhecimento de caracteres ou, ainda, obtido de um banco de dados. A síntese de fala pode ser usada em vários domínios de aplicação, tais como: auxílio para deficientes visuais, telecomunicações, multimídia, etc. Este trabalho apresenta um estudo sobre a produção da fala e da área de síntese de fala visando servir de subsídio para dissertações e pesquisas futuras, bem como para o Projeto Spoltech, um projeto de cooperação entre os Estados Unidos e o Brasil para o avanço da tecnologia da língua falada no Brasil (Português Brasileiro). Dentro deste estudo serão apresentadas as principais técnicas de síntese de fala, entre as quais destaca-se: Texto para Fala (TPF). Problemas de separação de sílabas, determinação da sílaba tônica, pronunciação das vogais “e” e “o” como um fonema aberto ou fechado, etc, são enfrentados dentro do contexto da área de síntese de fala para o português falado no Brasil. Tendo conhecimento destes problemas, o principal objetivo deste trabalho será criar regras para resolver o problema de pronunciação das vogais “e” e “o” de forma automática, visando obter produção sonora mais inteligível, por intermédio da implementação de um analisador estatístico, o qual verificará a letra anterior e posterior ao “e” ou “o” de uma palavra e, com isso, determinar a pronúncia dos mesmos para aquela seqüência de letras. As mesmas poderão tornar-se regras válidas para a solução do problema se atingirem 80% dos casos de ocorrência no dicionário com fonema “e” ou “o” aberto (limiar), sendo que elas serão lidas por um interpretador Scheme utilizado pelo programa Festival - ferramenta para a construção de sistemas de síntese de fala desenvolvida pelo Centre for Speech Technology Research (University of Edinburgh, Reino Unido), a qual utiliza TPF como método de síntese. Sabendo-se que o Festival gera os fonemas “e” e “o” como fechados se não há uma regra para inferir o contrário, serão consideradas apenas as regras encontradas para os fonemas abertos. Para possibilitar esta análise será utilizado um dicionário eletrônico de pronunciação (com 19.156 palavras), o qual possui a palavra e a sua respectiva pronúncia, conforme pode-se verificar no exemplo do Anexo 1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo tem como objetivo analisar o processo de reestruturação do cooperativismo agropecuário do Rio Grande do Sul na década de 90, a partir do estudo comparativo das estratégias adotadas por duas cooperativas com perfil diferenciado. Procurou-se identificar se as cooperativas conseguem continuar seu processo de reestruturação sem perder sua característica de sociedade de pessoas. Para o desenvolvimento do trabalho foram utilizados dados primários obtidos nas cooperativas; e dados obtidos em publicações, além da realização de entrevistas nas cooperativas. As principais conclusões foram as seguintes: a participação dos associados teve grande influência no desempenho da cooperativa; para obter sucesso na reestruturação deve-se priorizar as relações contratuais, a organização do quadro social e investimentos na unidade produtiva dos associados. Respondendo ao problema de pesquisa, constatou-se que a COSUEL distanciou-se do seu papel de sociedade de pessoas ao gerar a exclusão da maioria dos associados, enquanto que a COAPEL conciliou os interesses empresariais com os interesses da sociedade de pessoas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ambientes de engenharia apresentam a forte característica da necessidade de cooperação entre projetistas na concepção de projetos CAD, o que provoca uma série de problemas em relação aos ambientes usuais encontrados em aplicações convencionais. Na busca de solucionar tais problemas, vários recursos e mecanismos relativos às gerências de dados e do processo de projeto são apresentados em vários estudos encontrados na literatura. Boa parte desses recursos estão embutidos nesse trabalho, que visa apresentar um sistema gerenciador de documentação técnica para ambientes de engenharia/CAD chamado GerDoc Ábacus. A proposta da construção do GerDoc Ábacus é baseada na busca da solução dos problemas relativos à consistência dos dados de projetos e da integração de tarefas de projetistas que interagem em ambientes distribuídos de projeto. Unindo vários mecanismos, é proposta uma interface totalmente interativa, objetivando manter a harmonia entre projetistas que fazem parte de equipes de projetos que são mantidos em atividade durante longos períodos de tempo, além de documentar todos os passos realizados acerca de cada um desses projetos. Dessa forma, o GerDoc Ábacus é uma ferramenta organizacional e administrativa para projetos de engenharia, sendo de fácil operacionalização, buscando altos níveis de integridade dos dados mantidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca por indicadores de performance tem sido objeto de grande dedicação de pesquisadores da área básica e aplicada do esporte. Desta forma foram avaliados em triatletas, indicadores fisiológicos (economia de movimento, consumo máximo de oxigênio, freqüência cardíaca e limiar ventilatório) e cineantropométricos (massa, altura e percentual de gordura e biotipologia) a fim de diferenciar grupos de Elite e Não-Elite nos seus níveis de performance. Nem todos os fatores apresentaram valores intergrupos diferente: Distância nadada em 30 minutos(Dst30) (p=0,000); Distância de braçada (Dstbr) (p=0,024); e Índice de braçada (Ibr) (p=0,000) na modalidade de natação. Já no ciclismo, somente o consumo máximo de oxigênio (VO2 máx) diferiu (p=0,047). Na corrida, as diferença foram significativas no VO2 máx (p=0,007); na freqüência cardíaca de limiar ventilatório (Fcvt) (p=0,036); e nas economias de movimento (Ecokm) a 15, 16 e 17 km/h (respectivamente p=0,001 / 0,002 / 0,031). A análise do fator discriminante selecionou a Dst30 e a Eco15km/h como os fatores que potencializam a diferença entre os grupos e, baseado nestes dados, estabeleceu-se uma equação de regressão linear que foi capaz de classificar corretamente a população em 88,9% dos casos estudados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar os efeitos de um programa de exercício aeróbio sobre o condicionamento cardiorrespiratório em gestantes hígidas, de baixo risco, com sobrepeso. Métodos: 92 mulheres gestantes com sobrepeso (índice de massa corporal 26-31kg/m2), idade ≥ 20 anos, idade gestacional ≤ 20 semanas, com ausência de diabetes e hipertensão, foram alocadas aleatoriamente para realizar exercício aeróbio três vezes por semana com uma hora de duração ou para realizar sessões de relaxamento no grupo controle. Foram realizados dois testes de exercício submáximo em esteira, utilizando protocolo de rampa na entrada do estudo e outro teste após 12 semanas. Resultados: Em teste de exercício submáximo 12 semanas após randomização, o consumo de oxigênio (VO2) no limiar anaeróbio aumentou 17% (± 3) no grupo intervenção enquanto reduziu 16% (± 3) no grupo controle, de modo que após 12 semanas de exercício ajustado através da análise de covariância pelo o VO2 no limiar na linha de base, idade gestacional e idade materna foi de 2,68ml/kg/min (IC 95% 1,32-4,03) maior, P = 0,002. Conclusão: Exercício aeróbio realizado em gestantes com sobrepeso produz um aumento no limiar anaeróbio, sobrepondo os efeitos negativos da gestação sobre o condicionamento cardiorrespiratório em mulheres com estilo de vida sedentário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mapeamento da imunorreatividade ao neuropeptídio FMRF-amida no SNC e na musculatura pediosa de Megalobulimus oblongus foi realizado com o objetivo de dar continuidade aos estudos que vem sendo realizados nesta espécie, com o interesse em estabelecê-lo como modelo experimental em estudos neurobiológicos. O neuropeptídio FMRF-amida foi o primeiro peptídio nativo de invertebrados a ser purificado e seqüenciado, a partir do extrato de gânglios cardioativos do molusco Macrocallista nimbosa. Ele atuaria sobre os receptores metabotrópicos, induzindo a abertura dos canais iônicos de K+ tipo S (sensíveis à serotonina (5HT)), hiperpolarizando a membrana celular e assim, aumentando o limiar para o desencadeamento do potencial de ação. A distribuição da imunorreatividade à FMRF-amida em M. oblongus foi investigada empregando-se a técnica imunohistoquímica com anticorpo não-marcado de Sternberger (1979). Todos os gânglios nervosos centrais apresentaram neurônios e fibras FLI (FMRF-amide-like immunoreactivity), assim como suas comissuras, conetivos e a maioria dos nervos emergentes destes gânglios. Nos cortes da musculatura pediosa observou-se também uma intensa imunorreatividade a FMRF-amida. O maior número de neurônios FLI foi encontrado nos gânglios cerebrais com seus tamanhos variando de pequeno a grande. O corpo dorsal apresentou grande quantidade de fibras viii imunomarcadas. No mesocérebro foram detectados alguns agrupamentos FLI junto ao neuropilo e à comissura cerebral e neurônios dispersos na sua porção ântero-medial. O pró-cérebro mostrou-se repleto de neurônios globulosos FLI. Vários agrupamentos foram observados nos lobos pedal, pleural e comissural do pós-cérebro. Nos gânglios pedais houve intensa imunomarcação em agrupamentos neuronais localizados principalmente nas regiões posterior e lateral dos gânglios. Na região anterior foi observado um par de neurônios gigantes FLI. Uma distribuição homogênea de neurônios FLI foi observada por toda a extensão dos gânglios pleurais, com a exceção de apenas um neurônio grande localizado no gânglio pleural esquerdo. A diferença no tamanho dos dois gânglios parietais foi constatada também em M. oblongus. No hemigânglio esquerdo, o menor, foi identificado um neurônio gigante (300 µm). O gânglio direito apresentou um número maior de neurônios FLI, de tamanhos variados. O gânglio visceral foi a estrutura que mais apresentou neurônios grandes e gigantes por toda a sua extensão, com imunorreatividades variáveis. O par de gânglios bucais possuía agrupamentos neuronais FLI médios e grandes. Os neurônios gigantes não se mostraram imunorreativos, ou foram apenas levemente imunomarcados no trofospôngio. Na musculatura pediosa foram observadas fibras nervosas de diferentes calibres nas regiões dorsal, medial e ventral e sobre as células musculares. Identificaram-se gânglios nervosos nos pontos de intersecção dos ramos nervosos e malhas nervosas que formavam plexos nervosos nas regiões ventral e dorsal da musculatura pediosa de M. oblongus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese objetiva identificar os impactos dos investimentos em Tecnologia de Informação (TI) nas variáveis estratégicas e na eficiência dos bancos brasileiros. Para a realização da investigação, utilizaram-se vários métodos e técnicas de pesquisa: (1) entrevista com executivos para identificar o papel da TI nos bancos; (2) survey com executivos dos bancos para selecionar as variáveis estratégicas organizacionais em que os efeitos da TI são mais significativos; (3) entrevista com executivos para adaptar as variáveis como input e output observáveis em contas de balanço; e (4) método de Pesquisa Operacional para elaborar um modelo de análise de eficiência e aplicar a técnica de Data Envelopment Analysis (DEA) para avaliar a efetividade de conversão dos investimentos em TI. A entrevista exploratória com os executivos dos bancos permitiu identificar como os bancos utilizam a TI e o seu papel como ferramenta estratégica. O processo de validação e purificação do instrumento (questionário) e dos constructos utilizados na survey fez uso de procedimentos qualitativos e quantitativos, como: validade de face e conteúdo, card sorting, análise de fidedignidade (coeficiente alfa de Cronbach), análise de correlação item- total corrigido (CITC), análise fatorial exploratória nos blocos e entre blocos, e análise fatorial confirmatória. O instrumento também foi validado externamente com executivos de bancos americanos. A partir do conjunto final de construtos, foram identificados variáveis de input e output observáveis em contas de balanço visando à elaboração e à definição do modelo de análise de eficiência. O modelo de eficiência estrutura-se no conceito de efetividade de conversão, que pressupõe que os investimentos em TI, combinados com outras variáveis de input (despesas com pessoal, outras despesas administrativas, e despesas de internacionalização) transformam-se em output (receitas líquidas de intermediação financeira, de prestação de serviços e de operações internacionais). Uma característica adicional do modelo é a representação em dois estágios: os investimentos em TI geram incremento nas receitas, mas esta relação é intermediada pela acumulação de ativos, financeiros e não financeiros. Os dados de balanço dos 41 bancos incluídos na amostra, de 1995 a 1999, foram fornecidos pelo Banco Central do Brasil. A aplicação do modelo na amostra selecionada indica claramente que apenas investir em TI não proporciona efetiva eficiência. Por outro lado, os bancos que mais investiram em TI no período analisado ganharam eficiência relativamente ao conjunto de bancos analisados. Dentre os resultados desta tese, podem ser destacados: o modelo de pesquisa, o conjunto de constructos e o instrumento (questionário), o processo de observação de input e output em contas de balanço e o modelo de análise de eficiência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é proposta uma biblioteca de classes para sistemas de manufatura que visa facilitar a construção de modelos de simulação, permitindo o reuso e a agilizando a modelagaem. A principal característica deste trabalho é sua abordagem que difere da maioria dos trabalhos correlatos na área. Ela baseia-se na utilização de conceitos de produção bastante conhecidos atualemnte, como os roteiros e atividades de produção. Isto permite a criação de novas simulações muito mais rapidamente do que em outras metodologias, já que não são necessárias traduções compelxas entre a realidade e as aplicações simuladas. A biblioteca desenvolvida foi validade com a aplicação dos conceitos à modelagem de uma linha de produção de pontas de eixo para tratores, produzidos pela empresa Pigozzi S/A. ALém disso, o trabalho discute a possibilidade de integração entre a biblioteca de classes proposta e a ferramente de simulação de sistemas de manufatura Automod. A simulação do estudo de caso da linha de produção de pontas de eixo, modelada tanto no Automod quanto na biblioteca de classes proposta, permitiu uma comparação quantitativa, o que viabilizou a validação este trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sensação de dor é mediada por diferentes sistemas de transmissão, os quais estão continuamente sendo integrados e modulados por diversos mecanismos neurais, agindo em diferentes períodos de tempo. Para o estudo da dor neuropática, um dos modelos mais empregados é a lesão nervosa periférica, sendo que a maioria desses estudos é realizada em mamíferos. Apesar da ausência de um arranjo laminar, a medula espinal de anfíbios apresenta muitas similaridades anatômicas e funcionais com a dos mamíferos. Por isso, o estudo desses animais pode fornecer subsídios adicionais para compreensão dos mecanismos da transmissão nociceptiva, além de esclarecer os aspectos evolutivos envolvidos na mesma. No presente trabalho foi analisado o padrão de imunorreatividade ao neuropeptídeo Y (NPY), peptídeo relacionado ao gene da calcitonina (CGRP), somatostatina (SOM) e ácido γ-aminobutírico (GABA) em medula espinal lombossacral de rãs Rana catesbeiana em condições basais e após a secção do nervo ciático. Para isso, foram utilizados animais adultos, de ambos os sexos, os quais foram divididos em grupos controle (animais em condições basais) e experimental (animais submetidos à secção do nervo ciático). Para o estudo da imunorreatividade ao NPY, os animais desnervados foram sacrificados 3, 7 e 15 dias após a secção do nervo ciático. Para CGRP, SOM e GABA os intervalos de tempo considerados foram de 3, 5, 8 e 15 dias após a axotomia. A técnica imunoistoquímica utilizada foi a de Sternberger (1979), sendo utilizados anticorpos primários do tipo policlonal nas concentrações de 1:1000 (GABA e neuropeptídeo Y), 1:500 (somatostatina) e 1:100 (CGRP). A imunorreação foi semi-quantificada através de densitometria óptica. A intensidade dos produtos de reação foi comparada entre os lados ipsilateral e contralateral à lesão e com o grupo controle. Os resultados obtidos nos animais controle foram semelhantes aos descritos anteriormente para os anfíbios. A maior intensidade de imunorreação ocorreu na parte dorsal do funículo lateral para todas as substâncias neuroquímicas consideradas. Imunorreatividade ao GABA, NPY e SOM ainda foram observadas ao longo do funículo lateral e no funículo ventral. Na substância cinzenta, o corno dorsal apresentou maior imunorreatividade quando comparado ao ventral, sendo esta uma característica comum entre as substâncias neuroquímicas consideradas no presente estudo. Neurônios bitufted imunorreativos para GABA, NPY e SOM foram detectados na banda mediolateral. No corno ventral, neurônios motores apresentaram imunorreação à SOM, ao CGRP e ao GABA, sendo neste último de fraca intensidade. Após a desnervação periférica não houve variação no padrão de distribuição da imunorreatividade à SOM e ao CGRP. Entretanto, a axotomia causou uma redução significativa na imunorreatividade ao GABA na parte dorsal do funículo lateral no lado ipsilateral à lesão. Essa diminuição foi evidenciada 3 dias após a desnervação, persistindo aos 5, 8 e 15 dias após a secção do nervo ciático. A imunorreatividade ao NPY apresentou inicialmente (3 e 7 dias após a axotomia) um aumento bilateral na intensidade de reação. Porém, 15 dias após a desnervação periférica, houve uma queda na imunorreatividade ao NPY, a qual também foi evidenciada bilateralmente. Esses resultados sugerem o envolvimento das substâncias neuroquímicas abordadas neste estudo no processamento das informações sensoriais de rãs Rana catesbeiana. Todavia, ainda é especulativa a participação das mesmas nos mecanismos de transmissão e codificação da nocicepção nesses animais. Estudos complementares são necessários para o esclarecimento dessas questões. Todavia, pode-se afirmar que o corno dorsal desses animais apresenta uma circuitaria complexa, onde diferentes sistemas de neurotransmissores e/ou neuromoduladores interagem para a modulação dos sinais nociceptivos, semelhante ao que é descrito para os mamíferos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A difusão da educação baseada na Web está trazendo uma série de mudanças nesta área. Uma dessas mudanças está na forma de como se avaliar as atividades dos alunos remotos, não só através de tarefas tradicionais como testes, mas verificando, em tempo-real, as ações dos alunos e assim possibilitando ao professor um acompanhamento mais completo das atividades dos estudantes. De acordo com os recursos computacionais existentes, a utilização de um Sistema de Alertas é a opção que melhor se adequa a estas finalidades, pois com este tipo de sistema é possível acompanhar as atividades dos alunos em cursos a distância. O objetivo deste trabalho é apresentar um Sistema de Alertas Inteligentes para apoio ao ensino, que detecta problemas nas atividades dos alunos em cursos na Web e realiza ações corretivas adequadas. Este sistema está parcialmente integrado ao ambiente Tapejara do Instituto de Informática da UFRGS – Sistemas Inteligentes de Ensino na Web - que consiste em um sistema de construção e acompanhamento de cursos disponibilizados via Internet. A principal característica do Sistema de Alertas Inteligentes é a busca de situações críticas como, por exemplo: aluno apresenta baixo desempenho nos exercícios, a estratégia de ensino não corresponde ao perfil do estudante, aluno não está comparecendo às atividades do curso, etc. Com isto, este sistema pode auxiliar o professor (tutor virtual) a ter um acompanhamento mais preciso sobre as atividades realizadas pelo estudante e assim, adaptar as aulas às características do aluno, sem, com isto, acarretar numa sobrecarga de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.