865 resultados para digitalizador de imagens


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos multitemporais de dados de sensoriamento remoto dedicam-se ao mapeamento temático de uso da terra em diferentes instâncias de tempo com o objetivo de identificar as mudanças ocorridas em uma região em determinado período. Em sua maioria, os trabalhos de classificação automática supervisionada de imagens de sensoriamento remoto não utilizam um modelo de transformação temporal no processo de classificação. Pesquisas realizadas na última década abriram um importante precedente ao comprovarem que a utilização de um modelo de conhecimento sobre a dinâmica da região (modelo de transformação temporal), baseado em Cadeias de Markov Fuzzy (CMF), possibilita resultados superiores aos produzidos pelos classificadores supervisionados monotemporais. Desta forma, o presente trabalho enfoca um dos aspectos desta abordagem pouco investigados: a combinação de CMF de intervalos de tempo curtos para classificar imagens de períodos longos. A área de estudo utilizada nos experimentos é um remanescente florestal situado no município de Londrina-PR e que abrange todo o limite do Parque Estadual Mata dos Godoy. Como dados de entrada, são utilizadas cinco imagens do satélite Landsat 5 TM com intervalo temporal de cinco anos. De uma forma geral, verificou-se, a partir dos resultados experimentais, que o uso das Cadeias de Markov Fuzzy contribuiu significativamente para a melhoria do desempenho do processo de classificação automática em imagens orbitais multitemporais, quando comparado com uma classificação monotemporal. Ainda, pôde-se observar que as classificações com base em matrizes estimadas para períodos curtos sempre apresentaram resultados superiores aos das classificações com base em matrizes estimadas para períodos longos. Também, que a superioridade da estimação direta frente à extrapolação se reduz com o aumento da distância temporal. Os resultados do presente trabalho poderão servir de motivação para a criação de sistemas automáticos de classificação de imagens multitemporais. O potencial de sua aplicação se justifica pela aceleração do processo de monitoramento do uso e cobertura da terra, considerando a melhoria obtida frente a classificações supervisionadas tradicionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho pesquisou os usos do Jornal Eletrônico Educação & Imagem, feitos para e por professores da rede pública. As práticas narradas e as imagens trazidas pelos docentes, que são usuários do jornal, nos possibilitou refletir sobre os currículos e os conhecimentos que têm sido tecidos cotidianamente. Para analisar as narrativas e as imagens presentes nos artigos escritos pelos professores foram pesquisados os editoriais redigidos por cada grupo de pesquisa, que faz parte da elaboração do periódico, e a seção Voz do leitor que publica artigos escritos por professores. Este estudo tem suas relações teóricoepistemológicas e teórico-metodológicas com as pesquisas nos/dos/com os cotidianos (Lefebvre, Certeau) que têm permitido compreender as redes de conhecimentos e significações que se dão nos múltiplos cotidianos em que vivemos, entendendoos como contextos educativos. Para falar sobre a importância da narrativa em pesquisa alguns autores como Walter Ong e Nilda Alves embasaram este estudo. Para o tratamento das noções de tecnologia, currículo e imagens dialogamos com os autores Nilda Alves, MartinBarbero, Boris Kossoy, Roberto Macedo, Alice Lopes, Elisabeth Macedo, Arlindo Machado, Pierre Lévy, Edméa Santos e Marco Silva. Dos artigos analisados observei que as imagens utilizadas pelos professores que escreveram para o jornal apresentaram uma multiplicidade de usos. A maioria fez uso de material fotográfico. Em seus artigos temos imagens usadas nos seguintes contextos: como registro de suas atividades com os alunos, como registro/memória autobiográfica, como reflexão da própria imagem apresentada ou como ilustração do texto dentre outros. Ao trabalhar com estas narrativas e imagens temos a oportunidade de discutir como se dá e como se tem desdobrado os usos do periódico eletrônico, possibilitandonos compreender e complexificar sobre outros processos cotidianos, a partir destes que nos é retratado e narrado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essa dissertação tem o objetivo de verificar a contribuição de diferentes abordagens para extração de linhas, à classificação de imagens multiespectrais, com o possível uso na discriminação e mapeamento de classes de cobertura da terra. Nesse contexto, é efetuada a comparação entre diferentes técnicas de extração de características para extração de linhas de transmissão em áreas rurais, a saber, técnicas de realce utilizando variação de contraste e filtragem morfológica, bem como detecção de bordas utilizando filtro Canny e detector SUSAN, citando como técnica de extração de linhas a Transformada de Hough e Transformada de Radon, utilizando diferentes algoritmos, em imagens aéreas e de sensoriamento remoto. O processo de análise de imagens, com diferentes abordagens leva a resultados variados em diferentes tipos de coberturas do solo. Tais resultados foram avaliados e comparados produzindo tabelas de eficiência para cada procedimento. Estas tabelas direcionam a diferentes encaminhamentos, que vão variar de abordagem dependendo do objetivo final da extração das Linhas de Transmissão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A microtomografia computadorizada (computed microtomography - μCT) permite uma análise não destrutiva de amostras, além de possibilitar sua reutilização. A μCT permite também a reconstrução de objetos tridimensionais a partir de suas seções transversais que são obtidas interceptando a amostra através de planos paralelos. Equipamentos de μCT oferecem ao usuário diversas opções de configurações que alteram a qualidade das imagens obtidas afetando, dessa forma, o resultado esperado. Nesta tese foi realizada a caracterização e análise de imagens de μCT geradas pelo microtomógrafo SkyScan1174 Compact Micro-CT. A base desta caracterização é o processamento de imagens. Foram aplicadas técnicas de realce (brilho, saturação, equalização do histograma e filtro de mediana) nas imagens originais gerando novas imagens e em seguida a quantificação de ambos os conjuntos, utilizando descritores de textura (probabilidade máxima, momento de diferença, momento inverso de diferença, entropia e uniformidade). Os resultados mostram que, comparadas às originais, as imagens que passaram por técnicas de realce apresentaram melhoras quando gerados seus modelos tridimensionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O protótipo de uma interface gráfica para análise de imagens SAR (radar de abertura sintética - da sigla em inglês (Synthetic Aperture Radar) vem sendo desenvolvido e aperfeiçoado. Em seu estágio atual, a ferramenta é capaz de extrair o espectro direcional de ondas e o campo de ventos de imagens ERS 1&2. Dentre as diversas abordagens empregadas no desenvolvimento do protótipo, pode-se citar a avaliação da metodologia atualmente utilizada na interpretação das imagens. Neste sentido, é apresentada uma proposta de geração de imagens SAR sintéticas, de forma a viabilizar a avaliação do método de extração de parâmetros meteo-oceanográficos a partir do acoplamento do simulador de imagens com o interpretador utilizado no protótipo. Uma comparação detalhada entre os valores empregados para simulação e os resultados sacados da interface torna possível identificar possíveis deficiências e indicar aperfeiçoamentos ao método. Desta forma, o presente trabalho, além de discutir o protótipo para análise de imagens SAR, apresenta o desenvolvimento do acoplamento do simulador de imagens. Os resultados obtidos indicam que o acoplamento atingiu parcialmente seu objetivo apresentando bons resultados na interpretação das direções. Porém, ainda há algumas questões a serem avaliadas para a obtenção de resultados mais consistentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objetivo discutir, com os professores e alunos de uma escola pública de ensino médio do Rio de Janeiro, algumas questões relacionadas com suas práticas e concepções sobre leitura, a partir das imagens fotográficas produzidas ao longo da pesquisa. As diferentes concepções do ato de ler, a relação da leitura literária e de outros tipos de leitura com as novas tecnologias, o papel da escola valorizando, ou não, o acesso aos diferentes suportes de leitura, foram alguns dos temas discutidos ao longo da realização da pesquisa. Roger Chartier indicou o quadro mais amplo, através do qual a leitura foi compreendida como uma prática cultural, realizada em diferentes suportes, sujeita a diferentes gestos, espaços e hábitos e, logo, sujeita a diferentes apropriações e avaliações, acentuando a impossibilidade de que ela seja abordada de forma abstrata, universal. Inicialmente, a estratégia de pesquisa havia se baseado na confecção de um vídeo pelos alunos sobre o tema da leitura. Como esta estratégia não aconteceu da forma esperada, optou-se por fazer uso de imagens fotográficas. Os sujeitos da pesquisa foram convidados a produzir imagens que no seu entender estivessem relacionadas ao tema da leitura. As imagens produzidas pelos sujeitos proporcionaram o ponto de partida para a realização das entrevistas. No decorrer do trabalho a produção das imagens trouxe importantes contribuições tanto do ponto de vista da discussão das relações entre o pesquisador e os sujeitos da pesquisa, do próprio fazer da pesquisa, quanto em relação às discussões dos temas relacionados à leitura. Etiene Samain, Miriam Moreira Leite, Boris Kossoy, José de Souza Martins, foram alguns dos referenciais teóricos que permitiram discutir o uso da imagem na pesquisa, superando seu caráter de cópia da realidade, de prova, ou de ilustração ao texto. A discussão sobre o uso da imagem foi incluída em uma analise sobre as questões teórico-metodológicas relacionados ao uso das estratégias etnográficas de pesquisa, sistematizadas a partir da contribuição de autores como George Marcus, James Clifford e Joanne Passaro. Sendo uma pesquisa realizada no próprio local de atuação profissional do pesquisador, a discussão sobre a construção de sua identidade e sobre a dimensão ética da pesquisa ganhou algum destaque a partir das reflexões de Mikhail Bakhtin. Ao longo da pesquisa foi percebido que o discurso escolar sobre a leitura, tradicionalmente entendido como sendo associado à extrema valorização da leitura literária, não se apresentou na escola estudada, nem como indicação abstrata nem como prática concreta. Construído na relação com alunos e professores, esse dado foi analisado com base nas reflexões de Walter Benjamin sobre o declínio das condições de produção e recepção da leitura literária. Benjamin também serviu de base à análise de algumas das características da leitura e da escrita na contemporaneidade, marcadas pelo fluxo contínuo, por sua rapidez. Com o auxílio de Lúcia Santaella, foram discutidos os suportes contemporâneos da leitura, os distintos tipos de leitor a eles relacionados, bem como as diversas formas de apropriação da leitura por parte dos sujeitos. Ao longo do estudo percebeu-se que a multiplicidade dos percursos e das práticas escolares de leitura dos jovens pesquisados não se deve apenas as suas marcas subjetivas e identitárias, sendo relacional tanto à diversidade dos percursos e práticas de leitura dos professores, quanto às diferenças entre os lugares da escola em que a leitura acontece. Esse achado aponta para a impropriedade do discurso que, sem levar em conta as inúmeras configurações que a leitura pode assumir nas escolas, conclui que na escola a crise da leitura é norma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta pesquisa o objetivo principal é discutir o padrão de beleza historicamente hegemónicos em uma escola Pública Muncipal de Educação Infantil, na periferia do Rio de Janeiro, em Acari. Tenho como pressuposto para pesquisa que neste tempoespaço escolar se estabelece uma tensão entre as invisibilidades e visibilidades de imagens de heróis e heroínas e suas narrativas africanas e afrobrasileiras em relação às identidades, pois nesse espaço escolar parte da representação do humano é preferencialmente eurocêntrico-branca, embora os indivíduos que frequentam àquele espaço - crianças e educadoras sejam em sua grande maioria negros e mestiços. É neste cotidiano escolar que desenvolvo uma pesquisa/intervenção, articulando brincadeiras e tecnologias com literatura infantil da contemporaneidade. Intervenção que propõe uma discussão em torno da ética e da estética. Tal abordagem me instiga a investigar e a discutir as questões de relação étnico-raciais dessa escola e as emergências de heróis e heroínas da afrodiáspora.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Imagens de tomografia computadorizada (TC) permitem a visualização, sem distorções ou sobreposições, do complexo maxilo-facial, principalmente do osso alveolar. Estudos demonstraram boa reprodutibilidade e precisão da mensuração da altura da borda alveolar, todavia a influência da espessura óssea ainda é pouco descrita. Através da comparação com a mensuração direta, o objetivo deste estudo foi avaliar a precisão, reprodutibilidade e a influência da espessura óssea, na mensuração da altura da borda alveolar em imagens volumétricas e imagens bidimensionais multiplanares em TC de feixe cônico (TCFC) e em TC espiral (TCE). Utilizando 10 mandíbulas secas de humanos, 57 dentes anteriores foram tomografados em equipamentos iCAT (Imaging Science International, Hatfield, PA, EUA) e Brilliance 64 canais (Philips Eletronics, Eindhoven, Holanda), ambos utilizando voxels de 0,25 mm. Através de imagens volumétricas (3D) e imagens bidimensionais (2D) de cortes multiplanares, foi comparada a mensuração da altura da borda alveolar dessas imagens com a mensuração direta nas mandíbulas, feita por vestibular e lingual, por três avaliadores, com o auxílio de um paquímetro, totalizando 114 bordas alveolares medidas. Alta reprodutibilidade intra-avaliador (0,999 a 0,902) e interavaliador (0,998 e 0,868) foi observada através do índice de correlação intraclasse (ICC). Observou-se alta correlação entre a mensuração direta e indireta da altura da borda alveolar em imagens 2D, sendo r=0,923** e 0,916**, e em imagens 3D, com r=0,929** e 0,954*, em TCFC e TCE, respectivamente. Imagens 2D superestimam a altura da borda alveolar em 0,32 e 0,49 mm e imagens 3D em 0,34 e 0,30 mm, em TCFC e TCE respectivamente. Quando o osso alveolar apresenta espessura de no mínimo 0,6 mm a média da diferença entre medidas diretas e indiretas é de 0,16 e 0,28 mm em imagens 2D e de 0,12 e 0,03 mm em imagens 3D para TCFC e TCE respectivamente, sendo que 95% do limite de concordância varia de -0,46 a 0,79 mm e -0,32 a 0,88 mm em imagens 2D, e de -0,64 a 0,67 mm e -0,57 a 0,62 mm em imagens 3D, para TCFC e TCE respectivamente. Quando o osso alveolar é mais fino do que 0,6 mm a TC é imprecisa, pois 95% do limite de concordância variou de -1,74 a 5,42 mm e -1,64 a 5,42 mm em imagens 2D, e de -3,70 a 4,28 mm e -3,49 a 4,25 mm em imagens 3D, para TCFC e TCE respectivamente. Conclui-se que a mensuração da altura da borda alveolar através de imagens tomográficas apresenta alta reprodutibilidade, sendo que quando a borda alveolar apresenta pelo menos 0,6 mm, a precisão da mensuração é alta, todavia quando esta espessura é menor do que 0,6 mm a técnica é imprecisa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisar a ficção Água Viva, de Clarice Lispector, é o desafio desta dissertação, que integra autor, texto e leitor em uma discussão acerca de experiência estética e estrutura textual. Partindo de conceitos desenvolvidos pela Teoria do Efeito Estético, de Wolfgang Iser, o objetivo a ser atingido é o de identificar as ferramentas utilizadas pela autora Clarice Lispector que fazem de seu texto potência estética a ser desencadeada pelo leitor no ato da leitura. Ao investigar a estrutura desta obra, encontram-se elementos que tornam vulneráveis concepções pré-estabelecidas acerca da literatura, abrindo-se em vazios constitutivos que convidam o leitor a participar da criação de significações e da experimentação dos sentidos. A aproximação entre texto e artes plásticas, principalmente à pintura, tem forte presença nesta obra, que provoca a formação de imagens no momento do contato com o texto, acontecimento em que se fundem tempo e espaço para a irrupção do instante-já. Procurou-se, ainda, identificar tendências comuns entre a produção deste texto de Clarice Lispector e os questionamentos presentes em outras manifestações artísticas da época, notadamente quanto ao caráter transitório que a arte dos anos 70 assume, fazendo com que o próprio movimento, a própria transformação, tornem-se estrutura da arte de então

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta um estudo sobre a construção de imagens de enunciador nas manchetes dos jornais cariocas Meia Hora de Notícias (Grupo O Dia) e Expresso da Informação (Infoglobo). O aporte teórico que fundamenta esta pesquisa é a Análise do Discurso de base enunciativa e nos apoiamos nos pressupostos de Maingueneau (1997, 2004, 2008, 2010), no que concerne à concepção de língua e discurso abordada neste trabalho e em relação ao conceito de aforização; em Bakhtin (2011), ao se considerar a língua essencialmente dialógica e polifônica e em Authier-Revuz (1990), no que tange às heterogeneidades enunciativas, que marcam modos de entrada da voz de outro enunciador no fio de um enunciado específico. Foram analisadas manchetes dos jornais Meia Hora e Expresso e percebeu-se que, de uma maneira geral, o enunciador-jornalista, ao enunciar, apoia-se em citações de diversos tipos. Desse modo, foram mapeadas as manchetes que evidenciavam uma lógica de citação e encontraram-se as seguintes categorias de análise: aforizações (MAINGUENEAU, 2008, 2010), discurso direto e uso das aspas (MAINGUENEAU, 2004). Dentre os enunciados que evocavam tais modos de citar outras vozes, foram agrupadas as manchetes de acordo com as imagens que o enunciador criava de si em seus enunciados, de modo que foram depreendidas quatro categorias de enunciador: enunciador religioso, enunciador justiceiro, enunciador debochado e enunciador Homem com H maiúsculo. Diante dos desdobramentos dessas imagens de si que o enunciador-jornalista cria discursivamente, conclui-se que é instaurado um coenunciador (leitor) à sua imagem e semelhança: religioso, intolerante com a bandidagem, galhofeiro e, sobretudo, machista

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem como objetivo cartografar o devir câmera de um grupo de produção audiovisual para verificar de que forma as novas tecnologias de captura produzem uma transformação na relação com as imagens que poderá ser considerada como produção de uma nova subjetividade. Encaramos como devir câmera o resultado do acoplamento estudante/ câmera dedeo em suas várias manifestações tecnológicas (handycams, câmeras de fotografia digitais, telefones celulares). Como nosso objeto de pesquisa é formado por alunos de ensino médio-técnico e de graduação, também pretendemos apontar possibilidades para a utilização do audiovisual na educação atuando na construção de novos territórios existenciais, no sentido de gerar processos de singularização através da educação pela arte. Nosso campo conceitual tomará consistência através do uso de autores como Gilles Deleuze, Felix Guattari, Michel Foucault; Kastrup, Escóssia, Benevides, Passos, Suely Rolnik; Michael Hardt, Toni Negri, Peter Pal Pelbart, Gilbert Simondon, McLuhan, Pierre Lévy; Jonathan Crary, Pierre Barboza, e Phillipe Dubois, além da bibliografia técnica/tecnológica da área.