900 resultados para Conversores analógico-digitais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A televisão tem sido o principal meio de comunicação em massa no Brasil e possui alta inserção nos lares. Por outro lado, o país carece de melhores condições educacionais para dar conta das necessidades de formação de sua população. O advento do Sistema Brasileiro de Televisão Digital (SBTVD) adicionado ao modelo educacional a distância pode ser uma das estratégias fundamentais para o atendimento das demandas da Educação no Brasil. O estudo apresenta as características dessas tecnologias e discute sua aplicabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse artigo aborda as atuais questões das convergências da hipermídia com a memória, a narratividade oral, as histórias de vida e o patrimônio cultural local. Tem-se por objetivo mostrar como o sistema HiperMemo: Acervo Hipermídia de Memórias representa o elemento de convergência entre as novas tecnologias digitais (a linguagem hipermídia), a memória e o patrimônio cultural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O artigo de revisão versa sobre a mudança de configuração dada em sala de aula e fora dela a partir da adoção de redes sociais digitais como possibilidade de relacionamento entre alunos e professores. Os trabalhos consultados revelam uma tendência à adoção de novas formas de ensino e aprendizagem a partir da inclusão de tecnologia mediando os públicos envolvidos. Ressaltando trabalhos de sucesso e outros não muito felizes em que novas ferramentas foram adotadas por professores, as considerações apontam para a necessidade de adaptação por parte dos docentes para uma nova realidade de mercado em que o cliente, entendido aqui como aluno, traz consigo uma nova forma de aprender, inserindo a tecnologia como ferramenta necessária para que o conteúdo seja assimilado mais facilmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram estudadas, pelo método da assinatura digital, 35 biópsias esofágicas provenientes de pacientes da província de Linxian, China, classificadas por dois observadores com ampla experiência em patologia gastrointestinal como normais, displasias ou carcinomas (8 casos normais, 6 displasias leves, 8 displasias moderadas, 4 displasias acentuadas, 4 carcinomas suspeitos de invasão e 5 carcinomas invasores). O objetivo do trabalho foi caracterizar os núcleos das populações celulares desses casos de forma que permitisse a derivação de informações diagnósticas e de possível implicação prognóstica a partir do estudo quantitativo das características nucleares de cada caso ou categoria diagnóstica. As biópsias foram coradas pelo método de Feulgen, sendo então selecionados e digitalizados 48 a 50 núcleos de cada uma delas. De cada núcleo foram extraídas 93 características cariométricas, arranjadas arbitrariamente em histograma designado como assinatura nuclear. Da média aritmética de cada característica dos núcleos de uma mesma biópsia resultou a assinatura digital do caso. A análise de funções discriminantes, baseada nas 15 características cariométricas que ofereceram melhor discriminação entre as categorias diagnósticas, mostrou que o grupo classificado como normal foi claramente distinto das demais categorias. A densidade óptica total aumentou progressivamente segundo a classificação das biópsias, do normal à displasia acentuada, sendo o valor do carcinoma semelhante ao da displasia moderada. A matriz de comprimento de seqüência apresentou o mesmo perfil, ou seja, ambas as características ofereceram discriminação clara entre as categorias diagnósticas, com exceção do carcinoma invasor, cujos valores foram superponíveis aos da displasia moderada. O estudo demonstrou a viabilidade da quantificação de características nucleares através das assinaturas nucleares digitais, que demonstraram diferenças estatisticamente significativas entre diferentes categorias diagnósticas e a elevação progressiva dos valores mensurados relacionados com o espectro das lesões, apresentando-as como um histograma (assinatura digital nuclear).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em uma amostra constituída de oito mandíbulas humanas secas, foram selecionados quatro sítios na região de segundo pré-molar a primeiro molar, dos de cada lado. Um come de gutta-percha foi fixado com adesivo instantâneo na face lingual da mandíbula, na região de cada sítio. Para simular a presença de tecidos moles, as mandíbulas foram incluídas em parafina. Para a correta seleção dos sítios de exame, a tomografia hipocicloidal, foi utilizazda uma incidência radiográfica oclusa total dee cada mandíbula, cuja imagem foi capturada par ao monitor. Sobre a mesma foram selecionados os sítos para a obtenção de cortes ortorradiais de tomografia hipocicloidal, com espessura de 2 mm, através do equipamento IS2000 COMM-CATR. A tomografia computadoriza helicoidal foi obtida através do equipamento Twin FlashR e as reconstruções ortorradiais, cada uma com 2 mm de espessura, foram realizadas com o softtware Denta CTr. A mandíbulas foram seccionadas nos sítios propostos e todas as imagens, digitalizadas através de scanner. As imagens de tomografia hipocicloidal foram redimensionadas de acordo com a magnificação de 26%. Dois examinadores previamente calibrados realizaram medidas de distâncias e horizontais das imagens digitais apresentadas no monitor, sob condições ideiais de visualizaação. As comparações intra e interexaminador não mostraram variabilidade significativas. As medidas obtidas pelos dois métodos foram comparadas ao padrão-ouro e as diferenças encontradas foram menores que 0,1 mm. Tais resultados permitem concluir que, na presente amostra, tanto a tomografia computadoriza helicoidal quando a tomografia hipocicloidal permite obtenção segura das medidas verticais e horizontais propostas na região posterior mandíbula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma amostra de 30 radiografias mesiorradiais prémolares superiores, contendo um instrumento endodôntico em cada um de seus condutos, obtidas com a finalidade de odontometria, foi avaliado se a manipulação digital pela aplicação de filtros grráficos de inversão, pseudocolorização e relevo, favorece ou não a localização do ápice radiográfico.As imagens convencionais foram digitalizadas através de scanner em 300 dpi e 256 tons de cinca, tamanho original e ajuste automático de brilho e contraste, reproduzidas três vezes e submetidas aos filtros gráficos. Uma seqüência aleatória de todas as imagens foi apresentada em monitor, em condições padronizadas de visualização, a um observador habituado à utilização de imagens digitais que, através de régua eletrônica da barra de ferramentas do programa PhotoshopR, efetuou a medida da distância entre a borda superior da imagem e o limite apical para ambas as raízes, três vezes em oportunidades distintas. As quatro imagens de cada dente foram montadas em apresentação do programa PowerPointR e exibidas, com os mesmos critérios de padronização, para três observadores especialistas em endodontia, os quais qualitativamente em qual delas o limite apical de cada raiz era melhor visualizado. Através dos resultados do teste não-paramétrico de Friedman verificou-se que os valores médios para as imagens manipuladas não diferem significativamente daqueles obtidos sobre a imagem (p=0,001), onde se observa o maior coeficiente de variação. A imagem e sua versão em negativo foram classificadas como as melhores de forma mais consistente. A modalidade pseudocores e relevo receberam os piores escores, porém não de modo consistente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho investigou o programa televisivo Hip Hop Sul, veiculado pela TV Educativa do Rio Grande do Sul, e a sua relação com os músicos que dele participam, buscando entender as funções sócio-musicais e as experiências de formação e atuação musical que o programa desempenha. As técnicas utilizadas na coleta de dados foram a entrevista semi-estruturada, observações e acompanhamento da rotina de trabalho dos produtores do programa e registros em fotografias digitais e em audiovisuais da atuação dos grupos de rap e da produção do programa. A investigação foi desenvolvida na perspectiva dos estudos culturais (Wolf, 1995) e a análise dos dados foi feita com base no método de análise televisiva de Casetti e Chio (1998). O trabalho fundamenta-se na perspectiva da televisão como mediadora de conhecimentos musicais, (Fischer, 1997, 2000a, 2000b; Kraemer, 2000; Nanni, 2000 e Souza, 2000), a partir dos quais foram evidenciados os aspectos musicais formativos e atuantes presentes no Hip Hop Sul. Os aspectos abordados referem-se as experiências musicais dos grupos de rap como telespectadores e participantes do programa. Os resultados dessa pesquisa mostram que para esses grupos, ver a si mesmo ou sentir-se representados na televisão, significa existir, ter uma identidade e sair do anonimato. Estar na televisão é, portanto, uma experiência que modifica o ser e o fazer musical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo mostrar a adaptação das estratégias de uma empresa fornecedora de equipamentos de transmissão de dados, a PARKS S/A COMUNICAÇÕES DIGITAIS, frente às mudanças do mercado de telecomunicações no Brasil Através de uma análise de caso, evidenciaram-se as mudanças ocorridas no mercado de telecomunicações, a percepção desta empresa para tais mudanças e a orientação estratégica adotada para os seus próprios setores, a saber, o comercial, o industrial, o financeiro, o de recursos humanos e qualidade e o de engenharia. O estudo das mudanças ocorridas neste mercado abrangeu dois períodos, quais sejam, o anterior à privatização e os anos de 1997 até 2000, ressaltando-se, porém, que a análise se centrou neste último, o qual foi analisado mais detalhadamente. Uma vez identificadas as principais mudanças ocorridas na empresa escolhida para o estudo de caso - PARKS S/A Comunicações -, através de observação e da vivência do autor, bem como de contribuições relatadas por colegas da empresa, igualmente participantes do processo, este trabalho analisa estas mudanças uma a uma, mostrando o reflexo das mesmas na estrutura da empresa, procurando explicar como se deu o fenômeno e, assim, contribuindo para a compreensão de processos análogos que venham a ocorrer em um futuro próximo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo propôs-se, inicialmente, a observar os movimentos e as vicissitudes na busca da constituição de uma comunidade de aprendizagem em uma escola da Rede Municipal de Ensino de Porto Alegre, à luz da teoria de Humberto Maturana - A Biologia do Conhecer. A escola em questão foi escolhida por apresentar em seu projeto político-pedagógico a metodologia de projetos de aprendizagem mediada pelas tecnologias digitais. A pesquisadora acompanhou, durante dois meses, uma turma de progressão parcial composta por vinte adolescentes, do sexo masculino, em fase de conclusão do ensino fundamental, sem estarem alfabetizados. As observações passaram-se em diversos cenários da escola, envolvendo o laboratório de informática, a sala dos professores, as reuniões pedagógicas, o conselho de classe e a sala de aula. Por meio de uma pesquisa-ação, os dados do trabalho de campo foram recolhidos junto aos professores, coordenação pedagógica e serviço de orientação educacional. Foram fotografados os alunos em seu local de trabalho. Neste percurso, procuramos mostrar os movimentos que apontaram tanto para a constituição na direção de uma comunidade de aprendizagem quanto os recuos. Observamos que, nos momentos nos quais ocorreu um encontro no emocionar e no aprender entre alunos e professores, houve também uma proposta pedagógica compartilhada. A tecnologia, neste aspecto, apareceu apenas como um recurso, sendo utilizada de forma individualizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como foco a aplicação de técnicas de otimização de potência no alto nível de abstração para circuitos CMOS, e em particular no nível arquitetural e de transferência de registrados (Register Transfer Leve - RTL). Diferentes arquiteturas para projetos especificos de algorítmos de filtros FIR e transformada rápida de Fourier (FFT) são implementadas e comparadas. O objetivo é estabelecer uma metodologia de projeto para baixa potência neste nível de abstração. As técnicas de redução de potência abordadas tem por obetivo a redução da atividade de chaveamento através das técnicas de exploração arquitetural e codificação de dados. Um dos métodos de baixa potência que tem sido largamente utilizado é a codificação de dados para a redução da atividade de chaveamento em barramentos. Em nosso trabalho, é investigado o processo de codificação dos sinais para a obtenção de módulos aritméticos eficientes em termos de potência que operam diretamente com esses códigos. O objetivo não consiste somente na redução da atividade de chavemanto nos barramentos de dados mas também a minimização da complexidade da lógica combinacional dos módulos. Nos algorítmos de filtros FIR e FFT, a representação dos números em complemento de 2 é a forma mais utilizada para codificação de operandos com sinal. Neste trabalho, apresenta-se uma nova arquitetura para operações com sinal que mantém a mesma regularidade um multiplicador array convencional. Essa arquitetura pode operar com números na base 2m, o que permite a redução do número de linhas de produtos parciais, tendo-se desta forma, ganhos significativos em desempenho e redução de potência. A estratégia proposta apresenta resultados significativamente melhores em relação ao estado da arte. A flexibilidade da arquitetura proposta permite a construção de multiplicadores com diferentes valores de m. Dada a natureza dos algoritmos de filtro FIR e FFT, que envolvem o produto de dados por apropriados coeficientes, procura-se explorar o ordenamento ótimo destes coeficientes nos sentido de minimizar o consumo de potência das arquiteturas implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.