996 resultados para Processamento de imagens - Técnicas digitais


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas de sensoriarnento remoto e geoprocessamento são fundamentais para processamento e integração de dados de mapeamento geológico/geotécnico, principalmente estudos de gerenciamento e planejamento. A área estudada compreende o município de Três Cachoeiras. Litoral Norte do Rio Grande do Sul o qual inclui-se na "Reserva da Biosfera da Mata Atlântica". O município tem st: deparado com problemas de localização de sitios adequados à disposição final dos resíduos sólidos. bem como o assentamento de loteamentos residenciais e industriais, localização de jazidas de extração de material para construção, fontes de abastecimento de água e necessidade de criação de áreas de preservação ambiental. O objetivo deste trabalho foi produzir mapeamentos da área em questão, através da pesquisa geológico-geotécnica desenvolvida com emprego de imagens de satélite e fotografias aéreas, em que as informações foram cruzadas no SIG. Baseado nisto, investigaram-se os aspectos acima mencionados. a partir de uma contribuição geológico/geotécnica ao município, incluindo-se levantamento de campo, fotointerpretação, processamento e classificação de imagens do município de Três Cachoeiras, sendo os dados integrados num sistema de geoprocessamento. Utilizando-se cartas planialtimétricas, fotografias aéreas e imagem de satélite LANDSAT TM5. foram criados planos de informação como o limite da área estudada, a estrutura viária municipal, a delimitação de reservas ecológicas baseadas na legislação ambiental vigente e, por meio do modelo numérico do terreno, a carta de declividade. A fotointerpretação gerou planos de rede de drenagem, litológica. morfoestruturas e formações superficiais. Os dados de campo. sobrepostos às litológicas obtidas por fotointerpretação, produziram a carta litológica. No tratamento das imagem, foram gerados produtos com contraste, operações entre bandas, filtragens e análise de componentes principais, os quais contribuíram parira classificação da imagem e resultando nos planos de rochas/solos e cobertura/uso do solo (carta de uso atual do solo). O cruzamento destas informações permitiu a obtenção da carta de formações superficiais, lidrogeológica que, juntamente com as cartas litológica, declividades e uso atual do solo distribuíram os atributos do meio físico em planos elaborados por novos cruzamentos, que satisfazem o objetivo do estudo, sendo estes planos o produto final, ou seja, cartas de recomendação: a extração de materiais para construção civil; a implantação de obras de infraestrutura; a disposição de resíduos sólidos e loteamentos; geotécnica à agricultura; à implantação de áreas destinadas à preservação ambienta1 e recuperação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A reflexão deste trabalho compreende a relação entre a Técnica de produção de imagens (da fotografia a imagem digital) e a Cultura Visual, contextualizando seus princípios e a respectiva produção de sentidos dos usuários dessas imagens. Para tanto buscou-se, a partir da localização dos referenciais teóricos mais atualizados sobre o assunto, avaliar como se processa a transcrição (aspectos práticos) das informações visuais que se encontram potencialmente no documento fotográfico de perfil histórico, para a sua reprodução ou duplicação em meio digital. O documento fotográfico de perfil histórico está assim constituído por tratar-se de imagens produzidas num passado tido como histórico, ou seja, que apresente cenas pelas quais ocorrências e vivências já findas, de interesse social, possam vir a ser interpretadas pelo pesquisador. A reprodução ou duplicação em meio digital do documento fotográfico de perfil histórico, interessa, na presente investigação, não como produto de uma demanda individual, mas como recurso utilizado pelas instituições detentoras de acervos, na inviciativa de construir estratégias de conservação e/ou fomento para a pesquisa e divulgação das informações que tais fotografias veiculam. Estes documentos (marcas/registros físicos do mundo visível das coisas), destituídos de sua materialidade quando digitalizados, adquirem novas características, formatando, conseqüentemente, um novo discurso, diretamente relacionado ao seu processo de transcrição. Não compete analisar aqui a demanda pessoal por reproduções digitais, mas a expectativa inevitável que se estabelece no usuário de informações visuais plasmadas em um suporte analógico e as próprias, transcritas eletronicamente. O que se coloca em discussão, permeia considerações a respeito do novo estatuto das representações coletivas, localizadas dentro de uma Cultura Visual, que 11 potencialmente configurará o que podemos chamar de Cultura Pós-Fotográfica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O rápido avanço tecnológico coloca a tecnologia do Si diante de um grande desafio: substituir o dielétrico de porta utilizado por mais de 40 anos em dispositivos MOSFET (transistor de efeito de campo metal-óxido-semicondutor), o óxido de silício (SiO2), por um material alternativo com maior constante dielétrica. Nesse contexto, vários materiais têm sido investigados. Nesta tese concentramos nossa atenção em três candidatos: o óxido de alumínio (Al2O3), o silicato de zircônio (ZrSixOy) e o aluminato de zircônio (ZrAlxOy). Nossos resultados experimentais baseiam-se em técnicas de análise com feixes de íons ou raios-X e de microscopia de força atômica. No caso do Al2O3, investigamos a difusão e reação de oxigênio através de filmes relativamente espessos (35 nm) quando submetidos a tratamento térmico em atmosfera oxidante, e os efeitos que esses processos provocam em filmes finos (6,5 nm) de Al2O3 depositados sobre uma estrutura SiO2/Si. Observamos que o processo de difusão-reação em filmes de Al2O3 é diferente do observado em filmes de SiO2: no primeiro caso, oxigênio difunde e incorpora-se em todo o volume do filme, enquanto que em filmes de SiO2, oxigênio difunde através do filme, sem incorporar-se em seu volume, em direção à interface SiO2/Si, onde reage. Além disso, quando oxigênio atinge a interface Al2O3/Si e reage com o Si, além da formação de SiO2, parte do Si migra em direção ao Al2O3, deslocando parte dos átomos de Al e de O. Modelos baseados em difusão e reação foram capazes de descrever qualitativamente os resultados experimentais em ambos os casos. A deposição de filmes de Al2O3 sobre Si por deposição química de camada atômica a partir de vapor também foi investigada, e uma nova rotina de deposição baseada em préexposição dos substratos de Si ao precursor de Al foi proposta. As estruturas ZrSixOy/Si e ZrAlxOy/Si (ligas pseudobinárias (ZrO2)z(SiO2)1-z e (ZrO2)z(Al2O3)1-z depositadas sobre Si) foram submetidas a tratamentos térmicos em oxigênio ou vácuo com o objetivo de investigar possíveis instabilidades. Os tratamentos térmicos não provocaram instabilidades na distribuição de Zr, mas migração e incorporação de Si no filme dielétrico foram observadas durante os dois tratamentos para ambos os materiais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas utilizadas em sistemas de reconhecimento automático de locutor (RAL) objetivam identificar uma pessoa através de sua voz, utilizando recursos computacionais. Isso é feito a partir de um modelamento para o processo de produção da voz. A modelagem detalhada desse processo deve levar em consideração a variação temporal da forma do trato vocal, as ressonâncias associadas à sua fisiologia, perdas devidas ao atrito viscoso nas paredes internas do trato vocal, suavidade dessas paredes internas, radiação do som nos lábios, acoplamento nasal, flexibilidade associada à vibração das cordas vocais, etc. Alguns desses fatores são modelados por um sistema que combina uma fonte de excitação periódica e outra de ruído branco, aplicadas a um filtro digital variante no tempo. Entretanto, outros fatores são desconsiderados nesse modelamento, pela simples dificuldade ou até impossibilidade de descrevê-los em termos de combinações de sinais, filtros digitais, ou equações diferenciais. Por outro lado, a Teoria dos Sistemas Dinâmicos Não-Lineares ou Teoria do Caos oferece técnicas para a análise de sinais onde não se sabe, ou não é conhecido, o modelo detalhado do mecanismo de produção desses sinais. A análise através dessa teoria procura avaliar a dinâmica do sinal e, assumindo-se que tais amostras provêm de um sistema dinâmico não-linear, medidas qualitativas podem ser obtidas desse sistema. Essas medidas não fornecem informações precisas quanto ao modelamento do processo de produção do sinal avaliado, isto é, o modelo analítico é ainda inacessível. Entretanto, pode-se aferir a respeito de suaO problema analisado ao longo deste trabalho trata da busca de novos métodos para extrair informações úteis a respeito do locutor que produziu um determinado sinal de voz. Com isso, espera-se conceber sistemas que realizem a tarefa de reconhecer um pessoa automaticamente através de sua voz de forma mais exata, segura e robusta, contribuindo para o surgimento de sistemas de RAL com aplicação prática. Para isso, este trabalho propõe a utilização de novas ferramentas, baseadas na Teoria dos Sistemas Dinâmicos Não-Lineares, para melhorar a caracterização de uma pessoa através de sua voz. Assim, o mecanismo de produção do sinal de voz é analisado sob outro ponto de vista, como sendo o produto de um sistema dinâmico que evolui em um espaço de fases apropriado. Primeiramente, a possibilidade de utilização dessas técnicas em sinais de voz é verificada. A seguir, demonstra-se como as técnicas para estimação de invariantes dinâmicas não-lineares podem ser adaptadas para que possam ser utilizadas em sistemas de RAL. Por fim, adaptações e automatizações algorítmicas para extração de invariantes dinâmicas são sugeridas para o tratamento de sinais de voz. A comprovação da eficácia dessa metodologia se deu pela realização de testes comparativos de exatidão que, de forma estatisticamente significativa, mostraram o benefício advindo das modificações sugeridas. A melhora obtida com o acréscimo de invariantes dinâmicas da forma proposta no sistema de RAL utilizado nos testes resultou na diminuição da taxa de erro igual (EER) em 17,65%, acarretando um intrínseco aumento de processamento. Para sinais de voz contaminados com ruído, o benefício atingido com o sistema proposto foi verificado para relações sinal ruído (SNRs) maiores que aproximadamente 5 dB. O avanço científico potencial advindo dos resultados alcançados com este trabalho não se limita às invariantes dinâmicas utilizadas, e nem mesmo à caracterização de locutores. A comprovação da possibilidade de utilização de técnicas da Teoria do Caos em sinais de voz permitirá expandir os conceitos utilizados em qualquer sistema que processe digitalmente sinais de voz. O avanço das técnicas de Sistemas Dinâmicos Não-Lineares, como a concepção de invariantes dinâmicas mais representativas e robustas, implicará também no avanço dos sistemas que utilizarem esse novo conceito para tratamento de sinais vocais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A confiabilidade de sistemas de processamento digital de sinais é, entre tantos fatores, diretamente proporcional à confiabilidade dos conversores analógico-digitais neles presentes para serem usados como interface com o mundo real. Este trabalho propõe um método novo de teste de conversores analógico-digitais baseado em ruído. O método proposto possibilita a detecção de falhas nos conversores em teste. Além disto, a técnica proposta é capaz de estimar simultaneamente características estáticas e dinâmicas tornando-se, portanto, inovador em relação aos demais métodos presentes na literatura. A proposta, a simulação e a implementação do método são apresentadas ao longo desta dissertação. A comparação dos resultados obtidos com um método padrão de teste de ADCs, o método do histograma, comprovam a eficácia do método.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para avaliar, in vitro, o desempenho diagnóstico de imagens radiografadas convencionais digitalizadas através da obtenção de medidas de cmprimento radicular, da comparação de pares de imagens e da subtração digital em dentes submetidos a reabsorções radiculares externas apicais e à movimentação ortodôntica simulada, 28 incisivos centrais superiores, em cujas coroas foi colado um bracket, tiveram seu comprometimento radicular medido através de paquímetro digital e foram radiografados associados e um simulador de tecidos ósseo e moles, como auxílio de posicionadores individualizados, pela técnica periapical da bissetriz. Os dentes foram novamente medidos e radiografados após desgastes apicais seqüênciais de aproximadamente 0,5 m (R1) e 1 nn(R2), variando sua inclinação no sentido vestibulo-palatno (0º, 5º, 10º e 15º). As radiografias foram digitalizadas e submetidas incialmente à análise quantitativa do comprimento dentário, através de régua eletrônica. Após, pares de imagens do mesmo dente (inicial x inclinação) foram exibidos, em monitor, a um observador, que as avaliou quanto à presença ou à ausência de imagem compatível com reabsorção apical, atribuindo-lhes escores de 1 a 5. As imagens resultantes da subtração dos mesmos pares de radiografias foram avaliados pelos mesmos critérios. As medidas lineares de comprimento radicular foram reprodutíveis (r = 0,93), diferindo significativamente entre as duas etapas de reabsorção (R1: 0,59 0,19 mm; R2:1,14 0,37 mm) porém não diferindo significativamente em função da inclinação do dente. A avaliação de pares de imagens apresentou correlaçao média (r = 0,46) quando repetida em 20% da amostra, não apresentando diferenças estatisticamente significativas nos escores atribuídos às imagens de acordo coma inclinação dos dentes (Teste não paramétrico de Friedman, R1:p = 0,704 e R2:p = 0,508). A avaliação por subtração digital de imagens apresentou correlação média (r = 0,485) quando repetida em 20% da amostra, não diferiu significativamente (Teste não paramétrico de Friedman), em ambas as etapas de reabsorção, apenas para as inclinações 0º e 5º. Tais resultados permitem concluir que os rescursos testados tiveram desempenhos diferentes de Reabsorções Radiculares Externas Apicais (RREA) simuladas, pois os valores médios das medidas de comprimento do dente, para cada nível de reabsorção, não variaram, significativamente em função da inclinação do mesmo, permitindo a identificação e quantificação da RREA, na comparação de pares de imagens exibidas lado a lado na telado computador, os escores atribuídos também não variam signficativamente para as diferentes inclinaçãoes, permitindo a identificação da RREA; e, na avaliação qulitativa de imagens de subtração, os escores atribuídos permitiram a identificação da RREA apenas quando os dentes foram inclinados em até 5º.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante o processo de privatizações na década de 90, o Brasil adotou um abrangente marco regulatório para o setor de telecomunicações. Apesar desse esforço, uma questão fundamental acabou sendo deixada de lado: a regulação da Internet. Ao contrário de outros países, que ao final dos anos 1990 e começo dos anos 2000 adotaram legislações específicas para o tema, o Brasil, passados mais de 15 anos do acesso público à rede, ainda não possui dispositivos legislativos específicos sobre a questão. Ao final da década de 90, vários projetos de lei preocuparam-se com a regulação destes temas de forma ampla, mas nenhum logrou êxito. Temas fundamentais relacionados à estrutura da rede foram sendo progressivamente abandonados e substituídos por uma agenda exclusivamente criminal. No início dos dos anos 2000, praticamente desapareceu do Congresso Nacional qualquer proposta de regulação específica que pudesse abordar elementos fundamentais de um marco regulatório da internet. Em vez disso, passou a prevalecer uma agenda exclusiva no âmbito do direito criminal, com a tipificação de condutas e criação de penas. Exemplo significativo da onda subsequente de projetos de lei que procuraram regular a Internet por via do direito penal, o PLC 84/99 (numeração da Câmara)/ PLC 89/03 (numeração do Senado), provocou intensas reações negativas em um número significativo de atores da sociedade civil devido aos seus problemas de redação e inadequações técnicas, provocadores de danos colaterais consideráveis a direitos cruciais para o funcionamento de uma sociedade democrática: privacidade, liberdade de expressão, direito à comunicação e acesso ao conhecimento. Ao mesmo tempo, os vícios de redação do projeto representam riscos consideráveis para o potencial de inovação que emerge da Internet, com sérias consequências para o desenvolvimento da tecnologia, educação e economia do Brasil. O presente estudo traça um panorama histórico da regulação da Internet no Brasil, recorrendo ao direito comparado e história legislativa, propondo uma redação alternativa para o projeto em questão.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, a World Wide Web (WWW) já se estabeleceu como um dos meios de divulgação mais difundidos. Sendo um meio de publicação de custo relativamente baixo, muitas iniciativas foram desenvolvidas no sentido de estendê-la e transformá-la também numa ferramenta de apoio. Assim, uma série de pesquisas foi realizada no sentido de promover e facilitar o gerenciamento das informações da WWW, que são estruturadas, em sua maioria, como conjuntos de documentos inter-relacionados. Grafos são estruturas utilizadas para a representação de objetos e seus múltiplos relacionamentos. Nesse sentido, pode-se afirmar que hiperdocumentos podem ser modelados através de grafos, onde uma página representa um nodo e um link para outra página é representado por uma aresta. Considerando estas características, e dada a crescente complexidade dos materiais publicados na WWW, desenvolveu-se, ao longo da última década, o uso de técnicas e recursos de Visualização de Grafos com larga aplicação na visualização da estrutura e da navegação na WWW. Técnicas de visualização de grafos são aplicáveis especificamente para representar visualmente estruturas que possam ser modeladas por meio de objetos relacionados, sendo investigadas técnicas para a abstração de modo a facilitar tanto o processo de compreensão do contexto da informação, quanto a apreensão dos dados relacionados. Este trabalho tem como objetivo a investigação de técnicas de Visualização de Grafos aplicadas a autômatos finitos com saída. Este direcionamento se deve ao fato de alguns autores utilizar a abordagem de autômatos finitos com saída para as estruturas de hiperdocumentos. Se for considerado que um documento da WWW (ou o estado de um autômato) é composto por fragmentos de informação (ou saídas) tais como trechos de texto, imagens, animações, etc e que este documento é relacionado a outros por meio de links (ou transições), tem-se a verificação de sua representatividade por meio destas estruturas. Em trabalho anterior, no âmbito do PPGC da UFRGS, a ferramenta Hyper-Automaton foi desenvolvida com o objetivo de estender o uso da Internet no sentido de prover uma ferramenta de apoio à publicação de materiais instrucionais. Por adotar a notação de autômatos finitos com saída, possibilita, além da criação e gerenciamento de hiperdocumentos, a reutilização de fragmentos de informação sem que haja qualquer interferência de um autômato que utilize este fragmento sobre outro. O Hyper-Automaton foi selecionado como caso de estudo motivador deste trabalho. As técnicas aqui desenvolvidas têm como intuito diminuir a complexidade visual da informação, assim como permitir a navegação através dos autômatos finitos com saída de forma que seja possível visualizar detalhes como as saídas e informações relacionadas a cada uma delas, mantendo a visualização do contexto da informação. Foram analisadas técnicas de agrupamento como forma de redução da complexidade visual, e técnicas do tipo foco+contexto, como alternativa para prover a visualização simultânea do contexto e dos detalhes da informação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A formatação do ambiente de venda de uma loja é um dos principais instrumentos de que o varejista dispõe para obter vantagens competitivas e incrementar o seu desempenho. O complexo ambiente de loja oferece inúmeros estímulos que afetam o comportamento de compra dos clientes. Em sua experiência de compra, o cliente se guia basicamente pelas emoções e significados despertados por esses estímulos. Este estudo visa entender como emoções e significados captados pelo cliente na loja resultam dos diversos elementos que compõem o ambiente de venda da loja. Partindo dos fenômenos da percepção, do afeto e da cognição aplicados ao ambiente de venda, revisamos os principais estudos abordando a influência do ambiente de venda sobre o comportamento do consumidor em relação à loja, focando suas reações internas e em particular as emoções sentidas e os significados atribuídos ao ambiente de loja pelos clientes. Detalhamos e organizamos o rol dos elementos que compõem o ambiente físico de uma loja, utilizando-o como base para a análise dos efeitos desses elementos sobre os clientes em termos de emoções sentidas e significados atribuídos pelos clientes à loja. Tentando entender como o ambiente de venda da loja se relaciona com as emoções e os significados nele captados, realizamos uma investigação exploratória, de cunho qualitativo e mais descritivo que explicativo, utilizando técnicas como a entrevista parcialmente estruturada complementada por elementos da entrevista de profundidade, e o EmotiScape. Os resultados do estudo, como esperado para uma pesquisa exploratória, cobrem aspectos diversos. Em termos de resultados empíricos, identificamos os elementos ambientais efetivamente percebidos pelos clientes na loja, as principais integrações presentes entre esses elementos ao serem percebidos, e as emoções e os significados a eles atribuídos pelos clientes. Também descrevemos os principais mecanismos que ligam os elementos ambientais percebidos às emoções e aos significados atribuídos ao ambiente de loja. E ainda identificamos e descrevemos as ocorrências de integrações entre os processos afetivos e cognitivos dos entrevistados que resultam da presença dos elementos ambientais. Como contribuição conceitual inicial do estudo, confirmamos a visão dos modelos contingenciais da Psicologia para o fenômeno da percepção, evidenciando que os estímulos do ambiente de loja podem ser percebidos tanto “um a um” como conjuntamente no ponto de venda, passando ainda por casos intermediários, em que um número mais reduzido de estímulos atua conjuntamente para gerar emoções e significados para o cliente. Disto resulta uma aplicação gerencial direta: conhecendo antecipadamente estímulos isolados ou “pacotes” definidos de estímulos associados a emoções e significados específicos, poderíamos formatar intencionalmente o ponto de venda para provocar (ou evitar) determinados efeitos emocionais e cognitivos no cliente, usando o design como ferramenta para desenvolver estratégias mercadológicas e assim produzir o desempenho desejado para um certo ambiente de venda. A segunda contribuição conceitual do estudo diz respeito à comprovação de abordagem relativamente recente na Psicologia, que vê os fenômenos afetivos e cognitivos integrados em um mesmo processo abrangente de processamento de informações pela mente humana. Os resultados deste estudo suportam tal visão ao constatar que os clientes tanto utilizam suas emoções para construir “raciocínios” e julgamentos sobre a loja como, inversamente, constroem arrazoados que desembocam em (ou reforçam) suas emoções sentidas em relação à loja. Por fim, o estudo também avança na utilização de instrumentos de coleta de dados inovadores que podem captar estados emocionais variados (o EmotiScape) e vencer dificuldades de verbalização dos entrevistados para identificar estímulos ambientais percebidos (usando coletâneas de imagens detalhando o ambiente da loja).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho descreve a implantação da Gestão por objetivos na Área Industrial da Empresa PARKS Comunicações Digitais, que é uma empresa do segmento de telecomunicações que desenvolve, fabrica e distribui equipamentos destinados à comunicação de dados denominados de "última milha", ou seja, dentro de um sistema de tranmissão de dados e voz, seus equipamentos estão instalados próximos ao usuário final do serviço. São apresentados a geração dos indicadores de desempenho, o treinamento dos gestores da empresa e os resultados auferidos no decorrer dos primeiros anos. A implementação desta metodologia de gestão seguiu o processo de pesquisa e ação, usando técnicas de elaboração de objetivos e de seu acompanhamento. Os resultados foram avaliados através de dados financeiros da empresa, usando um indicador geral, o custo do produto vendido gerencial(CPV), e seus componentes, o custo do produto comprado, o de industrialização e o da não qualidade, cada um com seus próprios indicadores. Verificou-se que, tomando-se como base o CPV, ao longo do período, houve uma redução do mesmo que alcançou cerca de 16% do faturamento bruto obtido. Outro resultado positivo foi a formação de um grupo de gestores já treinado em levantamento, análise e determinação de metas, aguardando as diretrizes para desenvolver o Plano Estratégico da Empresa.