999 resultados para Imagens de muito alta resolução


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As espécies forrageiras, principalmente dos gêneros Brachiaria e Panicum, desempenham importante papel nas regiões pecuárias e têm auxiliado o desenvolvimento da indústria de sementes no Brasil, o qual se transformou em maior produtor, consumidor e exportador de sementes de gramíneas forrageiras tropicais. O objetivo desse trabalho foi avaliar lotes de sementes de Brachiaria brizantha 'Marandu' por meio do teste de tetrazólio conduzido mediante dois procedimentos. Foram utilizados 5 lotes de sementes de Brachiaria brizantha 'Marandu' de origens diferentes, avaliados pelo teste de germinação, após escarificação ou não com ácido sulfúrico, e pelo teste de tetrazólio com duas formas de avaliação: método convencional, sob estéreo microscópio, e análise de imagens digitalizadas, obtidas de sementes agrupadas em placa de vidro de alta transparência, com definição de 1200 dpi. O experimento foi conduzido em delineamento inteiramente casualizado. A avaliação de lotes de sementes de Brachiaria brizantha 'Marandu', conduzida por meio do teste de tetrazólio, com observação das imagens digitalizadas das sementes é equivalente à efetuada sob estéreo microscópio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o advento dos sensores hiperespectrais se tornou possível em sensoriamento remoto, uma serie de diferentes aplicações. Uma delas, é a possibilidade de se discriminar classes com comportamentos espectrais quase idênticas. Porém um dos principais problemas encontrados quando se trabalha com dados de alta dimensionalidade, é a dificuldade em estimar os inúmeros parâmetros que se fazem necessários. Em situações reais é comum não se ter disponibilidade de tamanho de amostra suficiente, por exemplo, para se estimar a matriz de covariâncias de forma confiável. O sensor AVIRIS fornece uma riqueza de informações sobre os alvos, são 224 bandas cobrindo o espectro eletromagnético, o que permite a observação do comportamento espectral dos alvos de forma muito detalhada. No entanto surge a dificuldade de se contar com uma amostra suficiente para se estimar a matriz de covariâncias de uma determinada classe quando trabalhamos com dados do sensor AVIRIS, para se ter uma idéia é preciso estimar 25.200 parâmetros somente na matriz de covariâncias, o que necessitaria de uma amostra praticamente impraticável na realidade. Surge então a necessidade de se buscar formas de redução da dimensionalidade, sem que haja perda significativa de informação. Esse tipo de problema vem sendo alvo de inúmeros estudos na comunidade acadêmica internacional. Em nosso trabalho pretendemos sugerir a redução da dimensionalidade através do uso de uma ferramenta da geoestatística denominada semivariograma. Investigaremos se os parâmetros calculados para determinadas partições do transecto de bandas do sensor AVIRIS são capazes de gerar valores médios distintos para classes com comportamentos espectrais muito semelhantes, o que por sua vez, facilitaria a classificação/discriminação destas classes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Por mais que a informatização esteja avançada (interligação por meio da rede internet de computadores entre os órgãos e entidades públicas pelo Estado), máquina alguma substituirá os dramas do homem contemporâneo, principalmente aqueles que sempre estiveram alijados da cidadania. O presente estudo traz à baila as reflexões e discussões acadêmicas desenvolvidas ao longo das mais de 700 horas/aulas do curso de mestrado em Poder Judiciário, turma 2010. Longe de ser uma unanimidade o Poder Judiciário é um poder do Estado que representa antes de tudo a capacidade e a prerrogativa de julgar, de acordo com as regras constitucionais e das leis criadas pelo Poder Legislativo em determinado país. É um dos mais sólidos pilares nas democracias e um perigoso algoz nos regimes absolutos. Apesar desta importância e de no Brasil ser um poder sólido que já demonstrou sua importância para a garantia da solidificação da democracia, são poucos os estudos sobre o Judiciário, poucos e iniciais são as pesquisas sérias sobre este poder de suma importância para a sociedade, para economia e para as instituições. Como, também, não é espanto quando vemos que fato repetitivo que a maior insatisfação ou reclamação da sociedade reside na morosidade das soluções judiciais traduzida pela alta taxa de litigiosidade da justiça brasileira. O Poder Judiciário é objeto de estudos sistemáticos, contínuos e avançados em diversos países que já demonstraram a importância de se conhecer bem as suas propostas, os resultados das suas atividades, funções e os seus gastos, pois, o seu “negócio”é a resolução dos conflitos da sociedade de forma a contribuir com a pacificação da mesma através de uma ordem jurídica justa. Os estudos realizados nos Estados Unidos, Alemanha e Espanha, como exemplo, demonstram que conhecer bem o judiciário é o primeiro passo para melhor gerenciá-lo. Assim, deve-se menção e reconhecimento no investimento realizado pela Fundação Getúlio Vargas em promover com destaque o presente Mestrado em Poder Judiciário. A FGV é uma das poucas instituições privadas que tem como um dos seus objetivos o preparo pessoal, extrapolando as fronteiras do ensino com avanços significativos nas áreas da pesquisa e da informação. No mesmo caminho da qualificação profissional de seus magistrados e servidores e na vanguarda da gestão judiciária, o Tribunal de Justiça do Distrito Federal e dos Territórios, investiu e acreditou na proposta de estudos e pesquisas do presente mestrado, merecendo, significativamente, os elogios e agradecimentos pela visão de futuro e investimento realizado no conhecimento que é sempre importante e necessário. A dissertação em comento representa primeiramente uma visão contraposta ao modelo de política pública encampada pelo Conselho Nacional de Justiça, através da Resolução 125 de 29 de novembro de 2010, cujo objeto é o tratamento adequado dos conflitos de interesse no âmbito do Poder Judiciário, representando, assim, interesse especial de pesquisa científica por se tratar de uma política nacional judiciária a ser adotada, obrigatoriamente, por todos os Tribunais de Justiça do país. Além deste aspecto supra referido, reside, também, o fato do ineditismo deste estudo e pesquisa, especificamente, porque essa política pública judiciária aborda aspectos e variáveis novas no tratamento das atividades e das funções próprias do Poder Judiciário quando propõem, como exemplo, o tratamento dos conflitos considerados pré processuais. Outro aspecto importante merecedor de atenção no estudo reflete-se na discussão do modelo de política pública que, em premissa vênia, deveria ser tratado em caráter geral republicando do Estado e não particularizado em um dos seus entes, mesmo que pareça ser, constitucionalmente, pressuposto da alçada do Poder Judiciário tratar exclusivamente do problema da altíssima litigiosidade e do baixo resultado de resposta à demanda posta para seu controle. Este estudo, tem como objetivo demonstrar que a resolução 125/2010 do CNJ é insuficiente para resolver os problemas de congestionamento e morosidade da Justiça brasileira, como preconizada, isso porque, o modelo que se propõe para combater o problema da morosidade é restrito e está “contaminado” pela idéia do monopólio da jurisdição ou por uma espécie similar que traz para o âmbito do judiciário uma nova atividade de trabalho, a qual é relacionada com a solução do conflito pré-processual a qual deveria fazer parte de uma política pública geral não restrita a um poder republicano. A correspondência dos argumentos com a materialização utilizada para o problema será comprovada nas linhas que se seguem, pois, assuntos com grande abrangência como as soluções judiciais devem, preferencialmente, adotar mecanismos públicos de caráter geral para uma boa solução. Nesse sentido, o trabalho demonstrará que as tentativas recorrentes em superar o problema da alta demanda judicial está restrita a modelos insuficientes abrangidos por um monopólio que não deveria ser aplicado para solucionar problemas pré processuais no âmbito do Poder Judiciário. Constitui, pois, um contraponto à idéia de efetividade na redução da demanda judicial tradicional 1 como prevista pela política pública judiciária frente ao monopólio da jurisdição, ou seja, frente à reserva que detém o Judiciário na promoção e gestão de uma nova atividade – o tratamento dos conflitos de interesse pré-processual por meio dos instrumentos de autocomposição, notadamente as conciliações e mediações. Apresentam-se, igualmente, neste trabalho proposições legislativas que dão o suporte material às idéias apresentadas, caracterizando a comprovação de viabilidade entre a apresentação do problema científico, as justificativas para o enfrentamento do problema e uma solução para o mesmo, como vista a modernizar uma política pública. Importante reafirmar que o escopo do presente trabalho não reside na observação própria dos modelos e técnicas de resolução de conflitos, notadamente as conciliações e mediações, incentivadas pelo CNJ, ou nos modelos arbitragem. Ao contrário, espera-se que todas as tentativas que possam melhorar e modernizar os atuais serviços judiciais no Brasil sejam válidas, eficazes e são muito bem vindas, pois, é uma tentativa positiva para melhorar o atual cenário em que se encontra o Poder Judiciário quando é confrontado em seu acesso à justiça, rapidez, confiabilidade e segurança nos seus julgamentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta dissertação apresento um estudo detalhado de vários aspectos da interacção entre um plasma de arco de alta pressão e cátodos refractários. Um modelo da camada de plasma junto ao cátodo num plasma sujeito a uma pressão da ordem de uma ou várias atmosferas é reconsiderado com base em recentes resultados teóricos. A física da camada de plasma junto ao cátodo é analisada para valores da queda de tensão na camada de plasma junto ao cátodo até 50V, de acordo com recentes resultados experimentais que mostram que a queda de tensão na camada de plasma junto ao cátodo numa descarga de arco de alta pressão pode atingir valores tão elevados. São identificados os mecanismos que originam a não monotonia da dependência da densidade de fluxo de energia (proveniente do plasma para a superfície do cátodo) em relação à temperatura da superfície do cátodo, para um valor fixo da queda de tensão junto ao cátodo. Uma descrição fechada da interacção plasma-cátodo é obtida por meio da resolução numérica do problema não linear com condições de fronteira para a distribuição da temperatura no interior do corpo do cátodo. São apresentados resultados da modelação numérica da descarga difusa nas condições de funcionamento de uma lâmpada de descarga experimental, sendo bom o acordo entre os resultados numéricos e os dados experimentais. Manchas solitárias num cátodo plano infinito e modos difuso e mancha axialmente simétricos em cátodos finitos de descargas de arco de alta pressão são estudados num grande intervalo de corrente. São analisados aspectos gerais e apresentados resultados numéricos referentes a cátodos de tungsténio planos e de forma cilíndrica a operar num plasma de argon à pressão atmosférica para correntes de arco até 100 kA. Émostrado, em particular, que a temperatura da superfície do cátodo no interior de uma mancha solitária varia relativamente pouco, podendo ser estimada com uma precisão de cerca de 200 − 300K sem ser necesário resolver a equação da condução térmica no corpo do cátodo. O comportamento assimptótico das soluções para um cátodo finito no caso limite de altas correntes é encontrado e confirmado pelos resultados numéricos. É confirmado um padrão geral das características tensão-corrente de vários modos de transferência de corrente em cátodos finitos sugerido previamente com base numa análise de bifurcações. É estudada a transição de modos mancha num cátodo finito no limite de cátodos de grandes dimensões para o modo mancha solitária num cátodo plano infinito. É estabelecido que o modo mancha solitária representa uma forma limite do modo mancha de alta tensão num cátodo finito. É considerada a questão da distinção entre modo difuso e modo mancha num cátodo finito. É desenvolvida uma abordagem para o cálculo de pontos de bifurcação nos quais soluções mancha tridimensionais bifurcam-se a partir de soluções que descrevem o modo difuso e modos mancha axialmente simétricos. Em particular, é calculado o primeiro ponto de bifurcação posicionado na solução que descreve o modo difuso e, por conseguinte, o seu limite de estabilidade, isto é, a corrente abaixo da qual o modo difuso torna-se instável. São apresentados os resultados da modelação numérica efectuada para o caso de um cátodo de tungsténio de forma cilíndrica a operar num plasma de alta pressão. É estudado o efeito produzido no limite de estabilidade pelas variações dos parâmetros de controle (dimensões do cátodo, função de trabalho do material do cátodo, tipo e pressão do gás que produz o plasma). Foi encontrado que o comportamento do limite de estabilidade sujeito a estas variações está em conformidade com as tendências observadas experimentalmente. Foi encontrado que o limite de estabilidade é muito mais sensível às variações dos parâmetros de controle do que as características tensão-corrente do modo difuso, sendo o efeito mais forte produzido pelas variações das dimensões do cátodo e da função de trabalho do material do cátodo. Este resultado está em conformidade com o facto experimental de que a transição difuso-mancha é de difícil reprodução.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contemporary studies have shown that the evolution of the heritage concepts is accompanied by an affirmation of the importance of social participation in recognizing heritage values and in managing cultural assets. We used the Brazilian context to emphasize the challenges for democratizing this process. This problematic is discussed based on the cases of Cidade Altaand Ribeira, neighborhoods that date from the formation of Natal-RNand have cultural assets recognized by levels of government. The study builds elements to answer the research question: what meanings and representations does the culturalheritage in the case study have for its users? The research method analyzes the representations and the meanings of the neighborhoods, firstly is based on historiographical studies, memories records of the city and on the process of heritage management. Secondly, it isbased on the field research, it is structured in environmental perception studies (areas of Environmental Psychology, Architecture and Urbanism) and has been applied with users with different bonds with the studied environment (residents, workers and visitors). The data were obtained with the multi-method which included direct observation, questionnaire survey and mentalmaps (that replicate Kevin Lynch). The analysis of result verified the research hypothesis, emphasizing aspects of the relationship between users and cultural heritage relevant to strengthening collective memory, local identity, contributing to heritage management. Among the results, the socio-environmental image obtained which emphasized a "cultural axis" linkingboth studied neighborhoods and confirms the influences of elements rein the memories records of the city and in the area s management. Identified aspects to strengthen the relationship between the users and cultural assets, such as the presence of placeswith affective ties to certain groups, as well as the need to fight off negative images (of degradation and insecurity) associated to the site and also expand the participation of the population, including residents, in policies and cultural activities. After all, recognition of value and the involvement of societycultural assets have the potential of contribute to integrate city development with heritage conservation

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The herbal medicine Sanativo® is produced by the Pernambucano Laboratory since 1888 with indications of healing and hemostasis. It is composed of a fluid extract about Piptadenia colubrina, Schinus terebinthifolius, Cereus peruvianus and Physalis angulata. Among the plants in their composition, S. terebinthifolius and P. colubrina have in common phenolic compounds which are assigned most of its pharmacological effects. The tannins, gallic acid and catechin were selected as markers for quality control. The aim of this study was the development and validation of analytical method by HPLC/UV/DAD for the separation and simultaneous quantification of gallic acid (GAC) and catechin (CTQ) in Sanativo®. The chromatographic system was to stationary phase, C-18 RP column, 4,6 x 150 mm (5 mm) under a temperature of 35 ° C, detection at 270 and 210 nm. The mobile phase consisted of 0.05% trifluoroacetic acid and methanol in the proportions 88:12 (v/v), a flow rate of 1 ml/min. The analytical method presented a retention factor of 0.30 and 1.36, tail factor of 1.8 and 1.63 for gallic acid and catechin, respectively, resolution of 18.2, and theoretical plates above 2000. The method validation parameters met the requirements of Resolution n º 899 of May 29, 2003, ANVISA. The correlation coefficient of linear regression analysis for GAC and CTQ from the standard solution was 0.9958 and 0.9973 and when performed from the Sanativo® 0.9973 and 0.9936, the matrix does not interfere in the range 70 to 110 %. The limits of detection and quantification for GAC and CQT were 3.25 and 0.863, and 9.57 and 2.55 mg/mL, respectively. The markers, GAC and CQT, showed repetibility (coefficient of variation of 0.94 % and 2.36 %) and satisfactory recovery (100.02 ± 1.11 % and 101.32 ± 1.36 %). The method has been characterized selective and robust quantification of GAC and CTQ in the Sanativo® and was considered validated

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present work is an initiative of undertaking a perspective that values the aspects of the city in its diversity. The one that t intends is to discuss the urbanity starting from the aspect of the image, of the history, and about main point, to value the point of the individual's view that lives the urban space in its more several configurations: the house, the street, the neighborhood, and the city in wider scale. The described historical research defines the city as space of the human accomplishments. When analyzing the moments of the most recent history of the urban life the modernity/post-modernity notions they are explored in the sense of illuminating the wealth, continuity and it breaks of patterns of behavior, and on the other hand, to describe a I overfly in the several times of the city. The prominences of aspects of the archaeology and of the descriptive resource they are related, for its time, the most punctual perspective of the practical research, the instance of the neighborhood, specifically High City and Riverside, configuring an immersion in the daily more punctual of the city, valuing forms of being, aiming the perspective of the personal computer as point-of-view. The images of the city assume the paper of representing the documental about the current features of the urbanity. It is without a doubt that at the present time the photographic image already possesses a paper of prominence it is as research instrument, be as main source for a work on files of photos. The photographic images in the present work possess a prominence place, focusing specific places of the city in the time. Finally, the individual's voice valued under the perspective on as the person's knowledge that inhabits and live the urbanity he/she understands the knowledge of the life in the city and, more than in any other place, a middle where the loss of action models is pointed very easily tends in view the dynamic movement of the practices and renewal of new indications; in the same space in that becomes urgent to build marks starting from which the individual can shimmer the future. And in that space the individual's voice is valued as rich source of information on living the scenery of conflicts of the present time

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose a multi-resolution, coarse-to-fine approach for stereo matching, where the first matching happens at a different depth for each pixel. The proposed technique has the potential of attenuating several problems faced by the constant depth algorithm, making it possible to reduce the number of errors or the number of comparations needed to get equivalent results. Several experiments were performed to demonstrate the method efficiency, including comparison with the traditional plain correlation technique, where the multi-resolution matching with variable depth, proposed here, generated better results with a smaller processing time

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose a new approach to reduction and abstraction of visual information for robotics vision applications. Basically, we propose to use a multi-resolution representation in combination with a moving fovea for reducing the amount of information from an image. We introduce the mathematical formalization of the moving fovea approach and mapping functions that help to use this model. Two indexes (resolution and cost) are proposed that can be useful to choose the proposed model variables. With this new theoretical approach, it is possible to apply several filters, to calculate disparity and to obtain motion analysis in real time (less than 33ms to process an image pair at a notebook AMD Turion Dual Core 2GHz). As the main result, most of time, the moving fovea allows the robot not to perform physical motion of its robotics devices to keep a possible region of interest visible in both images. We validate the proposed model with experimental results