999 resultados para Acervos digitais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Os colesteatomas podem ocorrer tanto em crianças como em adultos, porém nas crianças pareceriam ter um crescimento mais agressivo e extenso. A atividade das colagenases poderia explicar este perfil. Objetivo: Comparar, histologicamente, a perimatriz de colesteatomas adquiridos de crianças com os de adultos. Métodos: Foram estudados 74 colesteatomas, 35 pediátricos, coletados em cirurgias otológicas, fixados em formol 10% e processados pelas técnicas histológicas habituais. Foram preparadas uma lâmina em Hematoxilina-Eosina (HE) e outra em Picrossírios, de cada amostra, e analisadas ao microscópio óptico. A leitura foi “cega”, efetuada por meio de imagens digitais, no software ImagePro Plus. A análise estatística foi realizada através dos coeficientes de correlação de Pearson e Spearman e dos testes t e χ2, sendo considerados como estatisticamente significativos os valores de P<0,05. Resultados: Dos 74 colesteatomas coletados, 17 - sete do grupo pediátrico e dez do adulto - foram excluídos por não terem presença de matriz e perimatriz nas lâminas processadas. A média±dp da idade, no grupo pediátrico, foi de 12,85±3,63; e no adulto, 33,69±13,10. Na análise histológica, o número médio de camadas de células epiteliais da matriz foi igual a oito, nos dois grupos, 60% das amostras apresentavam inflamação, de moderada a acentuada; quanto à fibrose, nas crianças, 71,4% e nos adultos, 62,1%; o granuloma apareceu em 10,7% e 13,8%, respectivamente; a presença de epitélio cubóide simples delimitando a perimatriz foi encontrada em 29% dos infantis e 14% dos adultos, entretanto, nenhuma dessas variáveis apresentou diferença estatisticamente significativas quando comparadas por faixa etária (P>0,05). Quanto à espessura da perimatriz, no grupo pediátrico, as medianas (intervalo interquartil) dos parâmetros foram: média=79 (41 a 259); mediana=77 (40 a 265); soma=1.588 (831 a 5.185); delta=82 (44 a 248); mínimo=53 (16 a 165) e máximo=127 (64 a 398); já no grupo de adultos foram: média=83 (26 a 174); mediana=68 (30 a 181); soma=1.801 (558 a 3.867); delta=92 (45 a 190); mínimo=27 (12 a 100) e máximo=136 (53 a 280). O coeficiente de Spearman mostrou correlação inversa, moderada, entre a espessura da perimatriz e a idade; também houve correlação, forte, entre a espessura da perimatriz e o número de camadas da matriz, porém não houve correlação entre essa com a idade. Conclusão: Histologicamente, a perimatriz de colesteatomas adquiridos, de crianças e adultos, vista à microscopia óptica, apresenta-se como um tecido conjuntivo denso de espessura variável (intra e interpacientes), que, por vezes, exibe infiltrado inflamatório linfoplasmocitário e/ou tecido de granulação e reação de corpo estranho; em alguns casos é delimitada em plano profundo por epitélio cubóide simples. Há correlação inversa, de fraca a moderada, entre o tamanho da perimatriz, medida em micrômetros e a idade do paciente na data da cirurgia. O grau de inflamação da perimatriz apresenta correlação, de moderada a forte, com a espessura da perimatriz. As espessuras da matriz e da perimatriz estão fortemente correlacionadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os dispositivos analógicos programáveis (FPAAs, do inglês, Field Programmable Analog Arrays), apesar de ainda não terem a mesma popularidade de seus pares digitais (FPGAs, do inglês, Field Programmable Gate Arrays), possuem uma gama de aplicações bastante ampla, que vai desde o condicionamento de sinais em sistemas de instrumentação, até o processamento de sinais de radiofreqüência (RF) em telecomunicações. Porém, ao mesmo tempo em que os FPAAs trouxeram um impressionante ganho na agilidade de concepção de circuitos analógicos, também trouxeram um conjunto de novos problemas relativos ao teste deste tipo de dispositivo. Os FPAAs podem ser divididos em duas partes fundamentais: seus blocos programáveis básicos (CABs, do inglês, Configurable Analog Blocks) e sua rede de interconexões. A rede de interconexões, por sua vez, pode ser dividida em duas partes: interconexões internas (locais e globais entre CABs) e interconexões externas (envolvendo células de I/O). Todas estas partes apresentam características estruturais e funcionais distintas, de forma que devem ser testadas separadamente, pois necessitam que se considerem modelos de falhas, configurações e estímulos de teste específicos para assegurar uma boa taxa de detecção de defeitos. Como trabalhos anteriores já estudaram o teste dos CABs, o foco desta dissertação está direcionado ao desenvolvimento de metodologias que se propõem a testar a rede de interconexões de FPAAs. Apesar das várias diferenças entre as redes de interconexões de FPGAs e FPAAs, muitas também são as semelhanças entre elas, sendo, portanto, indiscutível que o ponto de partida deste trabalho tenha que ser o estudo das muitas técnicas propostas para o teste de interconexões em FPGAs, para posterior adaptação ao caso dos FPAAs. Além disto, embora o seu foco não recaia sobre o teste de CABs, pretende-se utilizá-los como recursos internos do dispositivo passíveis de gerar sinais e analisar respostas de teste, propondo uma abordagem de auto-teste integrado de interconexões que reduza o custo relativo ao equipamento externo de teste. Eventualmente, estes mesmos recursos poderão também ser utilizados para diagnóstico das partes defeituosas. Neste trabalho, utiliza-se como veículo de experimentação um dispositivo específico (Anadigm AN10E40), mas pretende-se que as metodologias de teste propostas sejam abrangentes e possam ser facilmente adaptadas a outros FPAAs comerciais que apresentem redes de interconexão semelhantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os equipamentos fotográficos digitais têm inovado a aerofotogrametria no que diz respeito à rapidez na coleta de informações geográficas referenciadas bem como o baixo custo da operação em comparação com os sistemas aerofotogramétricos convencionais. Na geração de produtos cartográficos, utilizando sistemas fotográficos digitais ou convencionais, o conhecimento dos parâmetros que definem a geometria interna da câmara é de fundamental importância. Este trabalho descreve uma das principais metodologias utilizadas atualmente para calibração analítica de câmaras. A câmara utilizada nesse trabalho é uma Kodak DCS460, e pertence à Fundação Universidade Federal do Rio Grande. O processo de calibração foi realizado na Universidade Federal do Paraná, com apoio do Programa de Pós-Graduação em Ciências Geodésicas, e o método utilizado foi o Método das Câmaras Convergentes Através do método paramétrico com injunções, o modelo final utilizado computacionalmente recupera os parâmetros intrínsecos como distância focal calibrada, posição do ponto principal, constantes da distorção radial simétrica e descentrada, bem como a matriz variância-covariância dos resultados obtidos no ajustamento. Os resultados da calibração foram analisados na matriz variância-covariância e foram satisfatórios. Para aplicação dos parâmetros em dados reais, uma imagem da região de Porto Alegre foi utilizada como objeto de estudo para geração de uma ortofoto, que é uma imagem corrigida geometricamente das distorções causadas pela variação de posição e altitude da plataforma. O Modelo Digital do Terreno é uma peça fundamental na geração de uma ortofoto e foi gerado a partir das curvas de nível fornecidas pela Prefeitura Municipal de Porto Alegre. Duas ortofotos foram geradas, a primeira levando em conta apenas o valor nominal da distância focal, e a segunda os parâmetros gerados no processo de calibração. Os resultados obtidos para a focal nominal apresentam resíduos maiores que os determinados com a distância focal calibrada, mostrando a necessidade de aplicação do método de calibração, como queria demonstrar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentemente, os métodos utilizados no processo classificação de imagens, em sua grande maioria, fazem uso exclusivamente dos atributos espectrais. Nesta pesquisa,são introduzidos os atributos espaciais, em particular a textura, no processo de classificação de imagens digitais. As informações de textura são quantificadas pelo método das matrizes de co-ocorrência, proposto por Haralick, e organizadas em um formato similar ao utilizado nas bandas espectrais, gerando desta forma canais de textura. Com a implementação deste atributo em adição aos espectrais, obtêm-se um acréscimo na exatidão obtida no processo de classificação de imagens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi realizado um estudo sobre a situação ambiental numa micro bacia hidrográfica, utilizando o Sensoriamento Remoto e outras fontes como técnica de obtenção e tratamento dos dados. Com o recurso das classificações de imagens digitais, através de um procedimento não-supervisionado e de outro supervisionado, utilizando, respectivamente os métodos da Distância Euclidiana e da Máxima Verossimilhança, foi identificado o uso efetivo aplicado à terra na data de tomada da imagem, de cujo resultado obteve-se um documento cartográfico que representa o uso antrópico da área. Através da identificação das características físicas locais, com base na interpretação visual dos produtos do Sensoriamento Remoto, imagens TM e fotografias aéreas, e de outras fontes, foi feita a identificação do emprego mais adequado a ser aplicado à terra, a qual gerou um outro documento cartográfico representativo. Do cruzamento das informações contidas nas etapas anteriormente descritas, foi realizada uma análise ambiental da área em estudo, a qual também gerou um mapa temático que a representa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Assinatura Digital de Contratos de Câmbio, regulamentada em 2004, é um processo que surge como uma alternativa ao tradicional processo de assinatura manual nos contratos. Este trabalho pretende, através de análise quantitativa da base de dados de um grande banco no Brasil, verificar padrões de comportamento que podem existir nos registros de operações de câmbio assinadas digitalmente, de acordo com o porte da empresa e sua segmentação dentro do Banco. O conceito do mercado de câmbio será analisado, assim como sua estrutura e funcionamento no Brasil. A Assinatura Digital será analisada profundamente, apresentando conceitos imprescindíveis para este processo, como a criptografia, funções hash, certificação digital e infra-estrutura de chaves públicas. Como contribuições do estudo serão apresentadas a importância do processo de assinatura digital na atualidade, o crescimento e a relevância das pequenas e médias empresas no uso da assinatura digital e as diferenças relativas à segmentação das empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A restauração de filmes no Brasil se tornou uma atividade mais sistemática a partir dos anos 1990, com a introdução das ferramentas digitais. Ao mesmo tempo em que trouxeram uma possibilidade quase ilimitada de intervenção nos filmes, as ferramentas digitais introduziram também um debate acerca da natureza ética envolvendo a restauração de filmes. Nesse contexto, se destacam os projetos de restauração dedicados aos filmes do Cinema Novo. Este trabalho pretende verificar em que medida a restauração digital vem a afetar os elementos de linguagem de Terra em Transe, de Glauber Rocha, filme marcado por uma grande inventividade formal. A análise da restauração do filme foi pautada por alguns dos conceitos de Cesare Brandi, autor que procurou trabalhar com a questão da ética no campo das artes plásticas. Algumas questões relacionadas à ética e à conceituação de restauração, bem como à trajetória histórica da restauração de filmes no Brasil, também são debatidas no texto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o intuito de utilizar uma rede com protocolo IP para a implementação de malhas fechadas de controle, este trabalho propõe-se a realizar um estudo da operação de um sistema de controle dinâmico distribuído, comparando-o com a operação de um sistema de controle local convencional. Em geral, a decisão de projetar uma arquitetura de controle distribuído é feita baseada na simplicidade, na redução dos custos e confiabilidade; portanto, um diferencial bastante importante é a utilização da rede IP. O objetivo de uma rede de controle não é transmitir dados digitais, mas dados analógicos amostrados. Assim, métricas usuais em redes de computadores, como quantidade de dados e taxa de transferências, tornam-se secundárias em uma rede de controle. São propostas técnicas para tratar os pacotes que sofrem atrasos e recuperar o desempenho do sistema de controle através da rede IP. A chave para este método é realizar a estimação do conteúdo dos pacotes que sofrem atrasos com base no modelo dinâmico do sistema, mantendo o sistema com um nível adequado de desempenho. O sistema considerado é o controle de um manipulador antropomórfico com dois braços e uma cabeça de visão estéreo totalizando 18 juntas. Os resultados obtidos mostram que se pode recuperar boa parte do desempenho do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe-se a investigar parâmetros para o desenho de procedimentos pedagógicos que proporcionem a aquisição do inglês como língua estrangeira usando os recursos das novas tecnologias de informação e comunicação, abrindo possibilidades de trabalho reflexivo. Ela foi motivada por questões referentes aos tipos de procedimento pedagógicos que podem ser usados com estas tecnologias para favorecer a reflexão durante a interação na aprendizagem do Inglês como Língua Estrangeira em comunidades virtuais; às interações que tendem a ser desencadeadas por tais comunidades; e as características que uma proposta pedagógica deve apresentar para a exploração da atividade reflexiva durante estas interações. Este estudo assumiu uma concepção pedagógica baseada, por um lado, em princípios gerais da epistemologia genética piagetiana, relacionando-a, complementarmente, a uma visão de complexidade sistêmica da língua e sua aquisição proposta por Larsen- Freeman (1997). Também fundamentou-se em procedimentos da aprendizagem formal da língua inglesa delineados nos estudos de Swain (1995,1998, 2000, 2001) envolvendo tarefas cooperativas. No experimento com um grupo de alunos em um ambiente digital de aprendizagem de língua inglesa a distância, utilizamos tarefas para a produção com foco alternado entre sentido e forma. Após, analisou-se a interação produzida, focalizando os procedimentos envolvendo estas tarefas neste ambiente específico. Os resultados apresentados indicaram que tarefas cooperativas interdependentes, voltadas para a produção, com foco alternado entre sentido e forma, realizadas através da ferramenta de Forum de um ambiente digital, favoreceram a reflexão na interação da comunidade virtual de aprendizagem de inglês. Concluímos que emergiram deste estudo alguns parâmetros que podem orientar o planejamento da estruturação de cursos de aprendizagem de uma língua estrangeira a distância em ambientes digitais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescente avanço nas mais diversas áreas da eletrônica, desde instrumentação em baixa freqüência até telecomunicações operando em freqüências muito elevadas, e a necessidade de soluções baratas em curto espaço de tempo que acompanhem a demanda de mercado, torna a procura por circuitos programáveis, tanto digitais como analógicos, um ponto comum em diversas pesquisas. Os dispositivos digitais programáveis, que têm como grande representante os Field Programmable Gate Arrays (FPGAs), vêm apresentando um elevado e contínuo crescimento em termos de complexidade, desempenho e número de transistores integrados, já há várias décadas. O desenvolvimento de dispositivos analógicos programáveis (Field Programmable Analog Arrays – FPAAs), entretanto, esbarra em dois pontos fundamentais que tornam sua evolução um tanto latente: a estreita largura de banda alcançada, conseqüência da necessidade de um grande número de chaves de programação e reconfiguração, e a elevada área consumida por componentes analógicos como resistores e capacitores, quando integrados em processos VLSI Este trabalho apresenta uma proposta para aumentar a faixa de freqüências das aplicações passíveis de serem utilizadas tanto em FPAAs comerciais quanto em outros FPAAs, através da utilização de uma interface de translação e seleção de sinais, mantendo características de programabilidade do FPAA em questão, sem aumentar em muito sua potência consumida. A proposta, a simulação e a implementação da interface são apresentadas ao longo desta dissertação. Resultados de simulação e resultados práticos obtidos comprovam a eficácia da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve algumas das soluções atualmente adotadas pelos tribunais federais para a gravação de audiência, bem como indica a oportunidade que o ambiente de interatividade da TV Digital Brasileira oferece para uma proposta de modelo de documento eletrônico de escritório que sirva de suporte para o resultado da gravação de audiência (texto, som e imagem), bem como possa contribuir para a mudança de paradigma dos atuais sistemas processuais (softwares). O objetivo é estabelecer um padrão fundamentado em uma política pública (Governo Eletrônico Brasileiro e Sistema Brasileiro de TV Digital Terrestre), onde não existam restrições comerciais quanto ao uso das novas tecnologias de comunicação e informação no que se refere ao mínimo para se privilegiar a inclusão social sem perda de eficiência. O trabalho é formado por dois tipos de conteúdo: parte textual e parte digital. A parte textual contém o resultado de uma pesquisa realizada junto aos tribunais federais, bem como apresenta os principais pontos do Governo Eletrônico Brasileiro e do Sistema Brasileiro de TV Digital Terrestre. Ainda descreve a estrutura montada na elaboração e realização da parte digital. Por sua vez, a parte digital reúne o material utilizado para a apresentação de protótipos (vídeos e exemplos de aplicações), para demonstrar as possibilidades de interatividade da TV Digital Brasileira e dos benefícios que os jurisdicionados e os operadores do Direito alcançariam com a proposta. Palavras-

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como principal objetivo o desenvolvimento das etapas iniciais de construção de um novo indicador denominado inicialmente de “Índice de Alfabetismo Digital”, Inad, o qual pretende contribuir para deslocar o debate hoje pautado no acesso às Tecnologias de Informação e Comunicação (TICs) para enfocar o seu uso e as habilidades associadas a ele. Tem como pressuposto o uso social que se faz dos recursos digitais com vistas aos benefícios à vida cotidiana, distanciando-se de métricas voltadas à mensuração de destreza ou domínio de ferramentas. Em vista disso, o conceito a ser mensurado com o Inad foi definido como letramento digital, pelo qual se entende a condição que permite ao sujeito usufruir das tecnologias de informação e de comunicação para atender às necessidades do seu meio social. Este, por sua vez, é composto por duas dimensões que compõem o ambiente digital: 1) as habilidades técnico-operacionais em TIC, que envolvem os conhecimentos necessários para manuseio das tecnologias e de suas ferramentas para lograr alguma ação em ambiente digital; 2) as habilidades informacionais em TIC que implicam na capacidade de manusear e integrar informações de diferentes níveis e formatos, num ambiente digital, para que estas se transformem em conteúdos úteis para responder a finalidades intencionais do sujeito, além da capacidade de avaliar informações e situações a que está submetido no uso das TICs e de compreender padrões de funcionamento que o permitam se desenvolver autonomamente neste ambiente. Por fim, é proposta uma matriz com seus respectivos descritores e detalhamento das áreas que os compõem, utilizando como referência, além das entrevistas com especialistas, matrizes já existentes no Brasil e em outros países para a dimensão técnico-operacional em TIC, e o modelo de letramentos de Eshet-Alkalai para a dimensão informacional em TIC. Concluímos o trabalho chamando atenção para os desafios que se apresentam e fazendo apontamentos para a continuidade da construção deste indicador.