93 resultados para Localização
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
Nucleotídeos extracelulares são envolvidos em diversos processos patofisiológicos no sistema nervoso central. Astrócitos são a maior fonte de nucleotídeos extracelulares da adenina no cérebro e também importantes alvos para as ações desses nucleotídeos via receptores purinérgicos P2. As ações induzidas pela sinalização purinérgica são reguladas pelas ecto-nucleotidases, que incluem membros da família das ecto-nucleosídeo trifosfato difosfoidrolase (E-NTPDase), ecto-5’-nucleotidase (ecto- 5’N) e ecto-adenosina deaminase (ADA). Culturas de astrócitos preparadas de hipocampo, córtex e cerebelo de ratos foram capazes de rapidamente converter ATP extracelular a ADP, que foi então hidrolizado a AMP. Os nucleosídeos tri-fosfatados foram hidrolisados preferencialmente aos difosfatados em todas as estruturas cerebrais. A análise cinética sugere que varias ecto-nucleotidases estão envolvidas nessa cascata enzimática. Análises preliminares de mRNA por PCR indicaram que astrócitos expressam múltiplos membros da família das NTPDases (NTPDase1 a NTPDase3 e NTPDase5/6). Por RT-PCR quantitativo (Real-time PCR), nós identificamos a NTPDase2 (CD39L1) como a NTPDase predominante expressa por astrócitos de hipocampo, córtex e cerebelo de ratos. Astrócitos do cerebelo apresentaram um padrão diferente para a hidrólise do AMP, com uma atividade específica 7 vezes maior, quando comparada com astrócitos de hipocampo e córtex. Uma maior expressão da ecto-5’N por RT-PCR foi identificada nessa estrutura. Não houve acúmulo de adenosina extracelular em todas as estruturas estudadas, indicando a presença de uma alta atividade ecto-adenosina deaminase em astrócitos. Dipiridamol aumentou significativamente os níveis de inosina no meio extracelular de astrócitos de hipocampo e córtex, mas não em astrócitos de cerebelo. Essas diferenças observadas podem indicar heterogeneidade funcional dos nucleotídeos no cérebro. Com o objetivo de investigar as enzimas envolvidas no catabolismo dos nucleotídeos como indicadoras da invasividade e agressividade dos gliomas malignos, nós avaliamos a degradação dos nucleotídeos extracelulares em cinco linhagens de gliomas diferentes e comparamos com astrócitos. Todas as linhagens de gliomas examinadas apresentaram baixas razões de hidrólise quando comparadas com astrócitos. Resultados preliminares sugerem que a falta de expressão da NTPDase1 e 2 possam ser responsáveis pela baixa hidrólise de ATP nas linhagens de gliomas. Considerando que o ATP é reconhecido como um fator mitogênico que induz a proliferação em células de gliomas, a substancial diminuição na hidrólise de ATP e ADP observadas em gliomas, sugere que alterações na via das ecto-nucleotidases pode representar um importante mecanismo associado com a transformação maligna desse tipo de tumor.
Resumo:
São analisados 106 pacientes submetidos a localização estereotáctica. Os procedimentos variaram de biópsias cerebrais, orientação de craniotomias, colocação de cateter em cavidade tumoral, drenagem de hematoma intracerebral e drenagem de abscesso cerebral. As orientações de craniotomias foram para MAVs, tumores e processos inflamatórios, em 21 pacientes. As biópsias cerebrais estereotácticas para diagnóstico anatomopatológico apresentaram um índice de positividade de 87,50 % com complicações em 1,20 %, em 82 casos. São analisadas estatisticamente as variáveis como: idade, sexo, procedimento realizado, diagnóstico anatomopatológico e volume das lesões. É discutida a imprecisão na aquisição e cálculo das coordenadas estereotácticas com a TC do encéfalo e verificada a precisão do método estereotomográfico com a utilização de um phanton. O maior erro das coordenadas foi de 6,8 mm.
Resumo:
Este trabalho é um estudo sobre agentes inteligentes e suas aplicações na Internet. São apresentados e comparados alguns exemplos de software com funcionalidades para extrair, selecionar e auxiliar no consumo de informações da Internet, com base no perfil de interesse de cada usuário. O objetivo principal deste trabalho é a proposição de um modelo geral e amplo de agente para a obtenção e manutenção de um repositório de links para documentos que satisfaçam o interesse de um ou mais usuários. O modelo proposto baseia-se na obtenção do perfil do usuário a partir de documentos indicados como modelos positivos ou negativos. O ponto forte do modelo são os módulos responsáveis pela extração de informações da Internet, seleção quanto a importância e armazenamento em banco de dados das URLs obtidas, classificadas quanto a usuário, categoria de assunto e assunto. Além disso, o modelo prevê a realização de freqüentes verificações de integridade e pertinência dos links armazenados no repositório. Com base no modelo proposto foi implementado um protótipo parcial. Tal protótipo contempla os módulos responsáveis pela obtenção de informações, seleção das informações pertinentes e classificação e armazenamento dos links de acordo com o assunto. Finalmente, o protótipo implementado permaneceu em execução por um determinado período, gerando alguns resultados preliminares que viabilizaram uma avaliação do modelo.
Resumo:
Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.
Resumo:
Resumo não disponível.
Resumo:
O exame de sangue é um dos procedimentos de análises clínicos mais utilizados pelo largo espectro de anomalias que consegue detectar. A contagem de células de sangue, objeto deste trabalho, é um destes exames. A contagem manual é feita por um operador que examina ao microscópio, com ampliação adequada, uma amostra eventualmente tratada ou colorida. Ainda hoje há casos em que contagem manual é necessária mas é cada vez mais freqüente a utilização da contagem automática, feita através de citômetro de fluxo. Esta dissertação aborda um sistema de contagem de células do sangue por processamento digital de imagens e pode ser automático ou semi-automático. O projeto é fruto de uma parceria entre o LaPSIDELET e o HCPA. Deste projeto surgiu o SAIMO (Sistema de Aquisição de Imagens para uso em Microscopia Óptica). No estágio atual o SAIMO possui algumas limitações no controle de posicionamento e no campo de visão limitado. O controle de posicionamento atual fica a cargo do operador: não há informação sobre as imagens já adquiridas, podendo ocorrer sobreposição. Devido à limitação do campo de visão, várias aquisições devem ser feitas para se obter o número mínimo de células recomendado. Além disso, há um possível aumento de erro de contagem associado às imagens parciais de célula presentes nas bordas das imagens. Este trabalho tem como proposta solucionar o problema de controle de posicionamento das aquisições, com a localização da cena durante a captura da imagem. Além disso, é proposta uma técnica de composição de mosaico com as imagens adquiridas, reduzindo os problemas causados pelo campo de visão limitado. Também são propostos métodos de préprocessamento apropriados às imagens adquiridas, que proporcionam a redução do tempo das tarefas subseqüentes. O método de validação das localizações verifica se as coordenadas encontradas por este processo são consistentes. Os resultados obtidos mostraram que o método é rápido na localização e eficiente na composição do mosaico, podendo ser utilizado como parte de um sistema de contagem de células por processamento digital de imagens.
Resumo:
Uma significativa quantidade de proteínas vegetais apresenta-se compartimentalizada nas diversas estruturas celulares. A sua localização pode conduzir à elucidação do funcionamento dos processos biossintéticos e catabólicos e auxiliar na identificação de genes importantes. A fim de localizar produtos gênicos relacionados à resistência, foi utilizada a fusão de cDNAs de arroz (Oryza sativa L.) ao gene da proteína verde fluorescente (GFP). Os cDNAs foram obtidos a partir de uma biblioteca supressiva subtrativa de genes de arroz durante uma interação incompatível com o fungo Magnaporthe grisea. Estes cDNAs foram fusionados a uma versão intensificada de gfp e usados para transformar 500 plantas de Arabidopsis thaliana. Outras 50 plantas foram transformadas com o mesmo vetor, porém sem a fusão (vetor vazio). Foram obtidas aproximadamente 25.500 sementes oriundas das plantas transformadas com as fusões EGFP::cDNAs e 35.000 sementes das transformadas com o vetor vazio, produzindo, respectivamente, 750 e 800 plantas tolerantes ao herbicida glufosinato de amônio. Após a seleção, segmentos foliares das plantas foram analisados por microscopia de fluorescência, visando o estabelecimento do padrão de localização de EGFP. Foram observadas 18 plantas transformadas com a fusão EGFP::cDNAs e 16 plantas transformadas com o vetor vazio apresentando expressão detectável de GFP. Uma planta transformada com uma fusão EGFP::cDNA apresentou localização diferenciada da fluorescência, notadamente nas células guarda dos estômatos e nos tricomas. Após seqüenciamento do cDNA fusionado, foi verificado que esta planta apresentava uma inserção similar a uma seqüência codificante de uma quinase, uma classe de enzimas envolvidas na transdução de sinais em resposta à infecção por patógenos.
Resumo:
O presente trabalho apresenta uma nova metodologia de localização de faltas em sistemas de distribuição de energia. O esquema proposto é capaz de obter uma estimativa precisa da localização tanto de faltas sólidas e lineares quanto de faltas de alta impedância. Esta última classe de faltas representa um grande problema para as concessionárias distribuidoras de energia elétrica, uma vez que seus efeitos nem sempre são detectados pelos dispositivos de proteção utilizados. Os algoritmos de localização de faltas normalmente presentes em relés de proteção digitais são formulados para faltas sólidas ou com baixa resistência de falta. Sendo assim, sua aplicação para localização de faltas de alta impedância resulta em estimativas errôneas da distância de falta. A metodologia proposta visa superar esta deficiência dos algoritmos de localização tradicionais através da criação de um algoritmo baseado em redes neurais artificiais que poderá ser adicionado como uma rotina adicional de um relé de proteção digital. O esquema proposto utiliza dados oscilográficos pré e pós-falta que são processados de modo que sua localização possa ser estimada através de um conjunto de características extraídas dos sinais de tensão e corrente. Este conjunto de características é classificado pelas redes neurais artificiais de cuja saída resulta um valor relativo a distância de falta. Além da metodologia proposta, duas metodologias para localização de faltas foram implementadas, possibilitando a obtenção de resultados comparativos. Os dados de falta necessários foram obtidos através de centenas de simulações computacionais de um modelo de alimentador radial de distribuição. Os resultados obtidos demonstram a viabilidade do uso da metodologia proposta para localização de faltas em sistemas de distribuição de energia, especialmente faltas de alta impedância.
Resumo:
Este trabalho trata de um problema de modelagem de redes de distribuição, que consiste em determinar a quantidade e a localização de centros de distribuição, bem como o estabelecimento da capacidade nominal, alocação de clientes e de fornecedores e determinação de quais famílias de produtos devem ser estocadas em cada depósito, de forma a minimizar a soma dos custos de armazenagem e de transporte. É exposta uma sistemática de análise para a localização de depósitos, onde são listadas as principais etapas a serem seguidas. Ainda, são apresentados dois modelos estratégicos, baseados em técnicas matemáticas distintas, que são aplicados à localização de multi-depósitos em uma cadeia com multi-produtos. São propostos um algoritmo de otimização, baseado em programação linear inteira-mista, e um modelo de localização no plano aplicado a múltiplas instalações, capazes de analisar toda a cadeia logística. Ilustra-se a aplicação destes modelos através do estudo de um caso prático em uma empresa de suprimentos industriais. Por fim, as soluções propostas pelos modelos são avaliadas através de análise de sensibilidade. Estes resultados são analisados de modo a estabelecer conclusões em relação à eficiência, precisão, praticidade e aplicabilidade dos modelos propostos.
Resumo:
A morte neuronal é uma causa importante de disfunção no sistema nervoso central, que se manifesta comportamentalmente como déficits motores, cognitivos ou de memória. Uma causa importante de morte neuronal é a isquemia que é definida como a falta, ou diminuição, do aporte de sangue para os tecidos (GINSBERG, 1995 a; PULSINELLI, 1997). A região CA1 do hipocampo é a mais vulnerável à isquemia (PULSINELLI et al., 1982; SCHIMIDT-KASTNER & FREUND, 1991; NETTO et al., 1993; NELSON et al., 1997), e está relacionada com a memória tanto em humanos como em animais (SQUIRE, 1992). Vários trabalhos mostram que os animais isquêmicos apresentam pior desempenho em tarefas de aprendizado e memória (GINSBERG, 1997; SQUIRE, 1992; NETTO et al., 1993; NELSON et al., 1997). Estratégias visando proteger as células contra um dano letal vêm sendo estudadas há vários anos. A tolerância induzida à isquemia é a neuroproteção induzida por uma isquemia transitória breve a um evento isquêmico transitório de longa duração. Em geral, um evento isquêmico breve, de 2 minutos de duração, protege contra a morte celular induzida por uma isquemia grave, de 10-20 minutos de duração, desde que haja um período de 24 horas entre os dois eventos isquêmicos (CHEN & SIMON, 1997; KITAGAWA et al., 1997; BARONE et al., 1998; ROSA NETO, 1998). O presente trabalho teve como objetivo reproduzir o fenômeno da tolerância induzida à isquemia em ratos adultos e avaliar o efeito da tolerância induzida sobre o aprendizado e a memória da tarefa no labirinto aquático de Morris e sobre o volume da região CA1 hipocampal, pelo método de Cavalieri, em ratos submetidos à isquemia transitória grave. Os animais foram submetidos a um estudo do aprendizado da tarefa de localização da plataforma em um labirinto aquático em três fases. O labirinto aquático foi dividido virtualmente em 4 quadrantes com um ponto de largada entre cada um. Na primeira fase, a plataforma foi colocada em um dos quadrantes, onde permaneceu durante os 6 dias de treino., com 4 largadas em cada dia, e um teste no 7º dia sem a plataforma. Na segunda fase foram 4 dias de treino, seguido pelo teste, com a plataforma no quadrante oposto. Na última fase, a plataforma era colocada em um local diferente a cada dia para testar a memória de trabalho. Não foi observado diferença estatisticamente significativa nas latências para encontrar a plataforma entre os grupos controle e isquêmicos em todas as tarefas. Na análise do volume da região CA1, observamos uma diminuição de 20% nos animais submetidos à isquemia de 10 min., comparado com os dos grupos controle, isquemia de 2 min. e isquemia de 2+10 min. (neuroproteção) (p<0.05). Estes resultados comportamentais estão de acordo com os encontrados por alguns autores (KIYOTA et al., 1991; GREEN et al., 1992), porém outros autores relatam resultados diferentes (NETTO et al., 1993; IQBAL et al., 2001). As diferenças entre as metodologias utilizadas poderiam explicar parcialmente os resultados divergentes, também podemos supor que, 20% de diminuição de volume não é suficiente para provocar comprometimento do aprendizado.
Resumo:
As acidemias propiônica e metilmalônica são desordens neurometabólicas hereditárias caracterizadas por progressiva deterioração neurológica, retardo mental, atraso no desenvolvimento psicomotor, convulsões e coma. A fisiopatologia do dano cerebral característico destas doenças ainda é pouco conhecida. No presente estudo investigamos o efeito de administração crônica (5o ao 28o dia de vida) dos ácidos propiônico (PA) e metilmalônico (MA), que são os metabólitos acumulados em maiores concentrações nos pacientes portadores das acidemias propiônica e metilmalônica, respectivamente, sobre o comportamento de ratos e sobre alguns parâmetros bioquímicos de estresse oxidativo no hipocampo dos animais. O comportamento dos animais foi avaliado 30 dias após o término do tratamento nas tarefas do labirinto aquático de Morris e no campo aberto. Os parâmetros bioquímicos avaliados foram o potencial antioxidante total do tecido (TRAP) e a atividade das enzimas catalase, superóxido dismutase e glutationa redutase. Todos as análises bioquímicas foram realizadas em hipocampo, estrutura fundamental para a localização espacial, requerida na tarefa do labirinto aquático de Morris. As doses de propionato ou metilmalonato foram administradas de acordo com as preconizadas nos modelos experimentais destas acidemias, tomando em consideração o peso e da idade dos animais. Os ratos controles receberam solução salina nos mesmos volumes. A administração de PA ou MA não alterou o peso dos animais. Entretanto foi encontrado um déficit de aprendizado e memória no grupo tratado com PA, e um déficit de memória no grupo tratado com MA. Nenhum dos grupos testados apresentou alterações na atividade motora (número de cruzamentos) na tarefa do campo aberto. Também determinamos o efeito da co-administração de ácido ascórbico nos animais tratados cronicamente com PA ou MA. Encontramos que o ácido ascórbico preveniu o déficit cognitivo provocado pela administração crônica de PA e MA. Por outro lado, verificamos que os tratamentos crônicos com PA e MA diminuíram o TRAP no hipocampo dos ratos, sem alterar a atividade de nenhuma das enzimas testadas. A prevenção do déficit cognitivo pelo ácido ascórbico associada à diminuição do TRAP no hipocampo dos animais tratados cronicamente com PA ou MA sugere que o estresse oxidativo pode estar relacionado com o déficit cognitivo encontrado no presente trabalho. Concluindo, nossos resultados indicam que o estresse oxidativo pode estar envolvido, ao menos em parte, com o dano cerebral nos pacientes afetados pelas acidemias propiônica e metilmalônica.
Resumo:
Estudo descritivo sobre o pensamento educacional brasileiro e o fracasso escolar examinado por meio da análise de conteúdos a partir de 110 artigos publicados no periodo corrente em educação Cadernos de Pesquisa editado pela Fundação Carlos Chagas. Abrange o perlodo de 1971 a 1989. Elucida questões relacionadas ao tratamento dado ao fracasso escolar, em termos de causas e soluções identificadas pelos teóricos da educação e por outros estudiosos procurando esse pensamento em função das condições em que e compreender produzido desde a sua localização na Universidade até a epistemologia que o subjaz e a corrente da sociologia do conhecimento que a inspira. Aponta a recorrência a Jean Piaget. Conclui que o pensamento educacional sobre o fracasso escolar apresenta-se em movimento de crescente expansão qualitativa e quantitativa e variado embora recorrente em alguns temas além de ser fortemente relacionado às condições econômicas e politicas que e produzido. Estes e outros fatores lhe impõem como em caracteristica mais remotas a concepção positivista de ciências sociais e como caracterlstica mais recente, a busca da especificidade da educação simultaneamente ao estudo das relações mantidas com a sociedade fazendo oscilar sua ênfase sobre um ou outro procedimento. Revela a crescente referência a Piaget assinalando sua ubiqüidade desenraizada nos primeiros artigos e a profundidade da discussão atual onde é utilizado diversificadamente. Sugere a realização de outros estudos com ênfase nos demais periódicos correntes em educação especialmente os de maior consulta nas faculdades de Pedagogia e o aprofundamento do estudo do pensamento educacional através de contato mais estreito com os seus sujeitos, ou seja, os autores de artigos e pesquisadores em educação.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.