55 resultados para Unidades de processamento grafico

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A obtenção de imagens usando tomografia computadorizada revolucionou o diagnóstico de doenças na medicina e é usada amplamente em diferentes áreas da pesquisa científica. Como parte do processo de obtenção das imagens tomográficas tridimensionais um conjunto de radiografias são processadas por um algoritmo computacional, o mais usado atualmente é o algoritmo de Feldkamp, David e Kress (FDK). Os usos do processamento paralelo para acelerar os cálculos em algoritmos computacionais usando as diferentes tecnologias disponíveis no mercado têm mostrado sua utilidade para diminuir os tempos de processamento. No presente trabalho é apresentada a paralelização do algoritmo de reconstrução de imagens tridimensionais FDK usando unidades gráficas de processamento (GPU) e a linguagem CUDA-C. São apresentadas as GPUs como uma opção viável para executar computação paralela e abordados os conceitos introdutórios associados à tomografia computadorizada, GPUs, CUDA-C e processamento paralelo. A versão paralela do algoritmo FDK executada na GPU é comparada com uma versão serial do mesmo, mostrando maior velocidade de processamento. Os testes de desempenho foram feitos em duas GPUs de diferentes capacidades: a placa NVIDIA GeForce 9400GT (16 núcleos) e a placa NVIDIA Quadro 2000 (192 núcleos).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: A preocupação em torno do uso irracional de psicofármacos tem sido observada em diversos países, constituindo-se uma questão importante para a saúde pública mundial. No Brasil, a promoção do uso racional de psicofármacos é um desafio para a atenção primária, sendo importante caracterizar sua dimensão psicossocial. Objetivos. O artigo 1, com características descritivas, tem como objetivo caracterizar o uso de psicofármacos em unidades de saúde da família segundo a presença de transtornos mentais comuns (TMC) e segundo as principais características socioeconômicas e demográficas. O artigo 2, com um caráter analítico, tem como objetivo avaliar o papel da rede social no uso de cada um destes psicofármacos segundo a presença de TMC. Métodos O estudo utiliza um delineamento seccional e abarca a primeira fase de coleta de dados de dois estudos em saúde mental na atenção primária. Esta se deu em 2006/2007 para o estudo 1 (Petrópolis, n= 2.104) e em 2009/2010 para o estudo2 (São Paulo, n =410, Rio de Janeiro, n= 703, Fortaleza , n=149 e Porto Alegre, n= 163 participantes). Ambos os estudos possuem o mesmo formato no que se refere à coleta de dados, seu processamento e revisão, resultando em uma amostra de 3.293 mulheres atendidas em unidades de saúde da família de cinco diferentes cidades do país. Um questionário objetivo com perguntas fechadas foi utilizado para a coleta de informações socioeconômicas e demográficas. O uso de psicofármacos foi avaliado através de uma pergunta aberta baseada no auto-relato do uso de medicamentos. A presença de TMC foi investigada através do General Health Questionnaire, em sua versão reduzida (GHQ-12). O nível de integração social foi aferido através do índice de rede social (IRS), calculado a partir de perguntas sobre rede social acrescentado ao questionário geral. No estudo descritivo (artigo 1), a frequência do uso de antidepressivos e o uso de benzodiazepínicos na população de estudo foram calculadas para cada cidade, tal como a frequência do uso destes psicofármacos entre as pacientes com transtornos mentais comuns. A distribuição do uso de cada um destes psicofármacos segundo as principais características socioeconômicas, demográficas e segundo transtornos mentais comuns foi avaliada através do teste de qui-quadrado de Pearson. No estudo analítico (artigo 2), a associação entre o nível de integração social e o uso exclusivo de cada um dos psicofármacos foi analisada através da regressão logística multivariada, com estratificação segundo a presença de TMC. Resultados: A frequência do uso de psicofármacos foi bastante heterogênea entre as cidades, destacando-se, porém, a importância do uso de benzodiazepínicos frente ao uso de antidepressivos em sua maioria. A proporção do uso de psicofármacos, sobretudo antidepressivos, foi predominantemente baixa entre as pacientes com TMC. Entre elas, o uso de antidepressivos mostrou-se positivamente associado ao isolamento social, enquanto o uso de benzodiazepínicos associou-se negativamente a este. Conclusão: Os resultados colaboram para a caracterização do uso de psicofármacos em unidades de saúde da família e para a discussão acerca de sua racionalidade. Destaca-se a importância de avaliar a dimensão psicossocial que envolve o uso destas substâncias com vistas ao desenvolvimento de estratégias de cuidado mais efetivas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A introdução de espécies em locais fora de sua distribuição natural é uma preocupação importante na conservação da biodiversidade. A espécie Callithrix aurita é endêmica das regiões de floresta de altitude da Mata Atlântica do Sudeste do Brasil. Os critérios mais relevantes que a enquadram como espécie ameaçada de extinção são: destruição do habitat, incapacidade de adaptação a florestas secundárias degradadas, declínio populacional, distribuição restrita e introdução de espécies exóticas invasoras. Estes critérios, aliados à evidente raridade, explicam a sua inclusão na Lista Oficial de Espécies da Fauna Brasileira Ameaçadas de Extinção. Os objetivos do trabalho são: estimar o tamanho populacional de C. aurita, C. penicillata e seus híbridos no Parque Nacional da Serra dos Órgãos, avaliar a hibridação entre as espécies por caracteres morfológicos e laboratoriais, verificar o estado de saúde e confirmar a participação de C. aurita na paternidade dos animais capturados, propor um plano de erradicação e de controle de invasão de C. penicillata no Parque. Os tamanhos populacionais das duas espécies de primatas foram estimados através do método Distance Sampling. Um total de sete sagüis foi capturado com armadilhas de captura viva para a contenção física e química e posterior realização dos procedimentos. Para o hemograma, as dosagens bioquímicas e as análises genéticas, o sangue foi recolhido em um tubo de ensaio contendo anticoagulante e mantido em temperatura de refrigeração até o momento da manipulação / processamento das amostras. Callithrix aurita parece estar bem preservada apenas na área do Parque correspondente ao trecho situado no município de Petrópolis. As análises citogenéticas e moleculares dos híbridos são uma ferramenta útil para confirmar se há ou não hibridação, identificando as espécies envolvidas e verificando se há tendência nos retrocruzamentos. Pode-se sugerir que existe uma tendência à diferenciação das espécies e identificação de indivíduos híbridos pelo padrão hematológico e bioquímico, a ser confirmada com uma amostragem maior de animais da espécie C. aurita, preferencialmente da mesma localidade e nas mesmas condições. No caso de C. aurita, as principais recomendações para sua conservação incluem pesquisas para o registro de outras populações em áreas de distribuição livres de invasão, para que se possa avaliar as chances de recuperação populacional e sobrevivência da espécie. A criação de novas Unidades de Conservação deve ser estimulada, assim como estudos mais aprofundados sobre a espécie nos locais já conhecidos de ocorrência, além de um programa seguro de criação em cativeiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Bacia do Rio Iguaçu-Sarapuí integra a região hidrográfica da Baía de Guanabara. Sua área de drenagem, com cerca de 726 km2, corresponde a aproximadamente 20% do total da área de contribuição à Baía, da ordem de 4600 km2 . Os municípios abrangidos pela bacia do Rio Iguaçu são: Nova Iguaçu, Duque de Caxias, Belford Roxo, São João de Meriti, Nilópolis, Mesquita e uma pequena parte do município do Rio de Janeiro. O presente trabalho tem como objetivo utilizar metodologias destinadas à identificação das unidades de paisagem na Bacia Hidrográfica do Rio Iguaçu, baseado nos conceitos de Paisagem Integrada e utilizando como suporte tecnologias digitais de geoprocessamento. Para o desenvolvimento desta pesquisa foram utilizados dados de diferentes fontes e órgãos governamentais de planejamento que trate desta temática. Os dados ao qual o texto se refere são: bases cartográficas em diferentes escalas de abordagem, Imagens Sensoriais Landsat 7, relatórios e diagnóstico da área em estudo. A identificação das unidades de paisagem na bacia do Rio Iguaçu-Sarapuí é feita a partir da delimitação das unidades de relevo e informações sobre o uso do solo, aspectos geológicos e pedológicos. O trabalho foi baseado no apoio das tecnologias digitais de geoprocessamento que permite uma melhor correlação entre diferentes tipos de informações tanto dos aspectos físicos, geológicos como também das ações antrópicas, classificando-as quanto ao grau de intervenção. O resultado do trabalho nesta região foi a elaboração de um diagnóstico ambiental das limitações e susceptibilidade ao desenvolvimento de determinadas atividades distribuindo-as espacialmente na bacia. A utilização de um Sistema de Informação Geográfica, em especial o Arc Gis 9.2 teve uma importância relevante na elaboração da pesquisa. Uma vez que este sistema trabalha com grandes volumes de informações e na análise integrada de objetos complexos, além de permitir a elaboração de um banco de dados espacial no próprio projeto. O que o diferencia dos demais Sistema de Informação Geográfica, tornando-o uma ferramenta eficiente na gestão integrada dos recursos naturais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de um estudo quantitativo, descritivo, visando uma análise das condições de trabalho em unidades intensivas de um hospital universitário no município do Rio de Janeiro. Foi definido como objeto de estudo a percepção dos trabalhadores de enfermagem sobre os riscos ocupacionais e os problemas de saúde inerentes às condições de trabalho em unidades intensivas e como problema de pesquisa: quais os riscos ocupacionais e problemas de saúde relacionados às condições de trabalho, percebidos pelos trabalhadores de enfermagem, em unidades intensivas de um hospital universitário? O objetivo geral foi estudar nas unidades intensivas os riscos ocupacionais e problemas de saúde da equipe de enfermagem e sua relação com condições de trabalho, a partir da percepção dos mesmos. Os objetivos específicos traçados foram: identificar as características pessoais e profissionais dos trabalhadores de enfermagem de unidades intensivas; descrever os fatores de risco do ambiente de trabalho percebidos pelos trabalhadores de enfermagem; levantar os problemas de saúde percebidos pelos trabalhadores e sua relação com o trabalho; analisar a associação entre os problemas de saúde percebidos pelos trabalhadores de enfermagem e as condições do trabalho em unidades intensivas. Participaram da pesquisa 125 profissionais de enfermagem de quatro unidades intensivas do Hospital Universitário (HU) entre Maio e Julho de 2009. A predominância foi de profissionais do sexo feminino, com idade acima dos 40 anos, com mais de um vínculo empregatício e trabalhando no HU há mais de 10 anos. Os riscos ocupacionais mais percebidos pelos trabalhadores foram os ergonômicos, seguido dos biológicos, de acidentes, físicos e químicos. Os problemas de saúde mais frequentes foram varizes, problemas oculares, lombalgias, estresse e depressão, transtornos do sono, lesões de coluna vertebral, dores de cabeça, mudanças no humor, dores musculares crônicas e hipertensão arterial. Pela associação entre riscos ocupacionais e problemas de saúde, conclui-se que os trabalhadores expostos a fatores de riscos ergonômicos e físicos têm maior probabilidade de adquirir problemas de saúde osteoarticulares e circulatórios (varizes). Diante dos dados desta pesquisa faz-se necessário aprofundamento da investigação sobre os fatores de riscos encontrados e possíveis medidas para minimizá-los, mediante novos estudos. Como recomendações destacam-se a criação de um espaço de discussão entre os gerentes e trabalhadores para a elaboração de um programa que vise a promoção e proteção da saúde do trabalhador de enfermagem de unidades intensivas; implementação de medidas de controle específicas para cada tipo de risco evidenciado e a criação de um Comitê de Ergonomia para operacionalizar a implementação das melhorias no HU, a fim de consolidar as transformações esperadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Copolímeros casca-núcleo de poli(acrilato de butila) (núcleo) e poliestireno (casca) foram sintetizados por meio de polimerização em emulsão, conduzida em duas etapas. A adição de ácido itacônico como monômero funcional na polimerização do núcleo foi realizada para verificar seu efeito sobre suas propriedades mecânicas e de processamento. Os copolímeros foram caracterizados por espalhamento dinâmico de luz (DLS), microscopia eletrônica de transmissão (MET), cromatografia de exclusão por tamanho (SEC), espectrometria na região do infravermelho (FTIR) e calorimetria diferencial por varredura (DSC). A incorporação do monômero funcional foi confirmada por DSC e quantificada por titulação. A proporção de poli(acrilato de butila) e poliestireno influenciou diretamente o processamento e as propriedades mecânicas do polímero. Os copolímeros com teores de poliestireno acima de 50% foram processados por compressão e extrusão a temperatura ambiente, apresentando comportamento baroplástico. A presença do monômero funcional não alterou o processamento do polímero e melhorou significativamente sua resistência à tração, aumentando sua tenacidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A indústria de processos químicos tem sofrido consideráveis transformações devido ao acirramento da competitividade. Importantes progressos tecnológicos têm sido atingidos através de técnicas de modelagem, simulação e otimização visando o aumento da lucratividade e melhoria contínua nos processos industriais. Neste contexto, as plantas de metanol, um dos mais importantes produtos petroquímicos, podem ser destacadas. Atualmente, a principal matéria-prima para obtenção de metanol é o gás natural. A produção do metanol é caracterizada por três etapas: geração de gás de síntese, conversão do gás de síntese em metanol (unidade de síntese ou loop de síntese) e purificação do produto na especificação requerida. Os custos fixos e variáveis da unidade de síntese são fortemente dependentes das variáveis operacionais, como temperatura, pressão, razão de reciclo e composição da carga. Desta forma, foi desenvolvido um conjunto de modelos e algoritmos computacionais para representar matematicamente unidades de síntese de metanol. O modelo apresenta operações unitárias associadas aos seguintes equipamentos: divisores de correntes, misturadores de correntes, compressores, trocadores de calor, vasos de flash e reatores. Inicialmente, foi proposto um simulador estacionário, que serviu como base para um pseudo-estacionário, o qual contempla a desativação do catalisador por sinterização térmica. Os simuladores foram criados segundo uma arquitetura seqüencial modular e empregou-se o método de substituição sucessiva para a convergência dos reciclos. O estudo envolveu dois fluxogramas típicos, um constituído por reatores adiabáticos em série, enquanto o outro constituído por um reator tipo quench. Uma análise do efeito das principais variáveis operacionais foi realizada para o reator e para o loop de síntese. Estudou-se também o efeito da desativação do catalisador ao longo do tempo. Uma ferramenta de otimização operacional foi empregada para alcançar a máxima produção manipulando as injeções de carga fria na entrada dos leitos catalíticos. Formulou-se também um problema de maximização do lucro em função da otimização de paradas da unidade para troca do catalisador. Os resultados obtidos apontam que a ferramenta desenvolvida é promissora para a compreensão e otimização da unidade objeto deste estudo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde o fim da era das remoções, o foco de preocupação do Estado em relação às favelas tem se deslocado da urbanização para a violência, em especial para o tráfico de drogas. A militarização da questão da violência urbana se manifesta de forma definitiva com a inauguração das Unidades de Polícia Pacificadora nas comunidades carentes cariocas. A despeito dos aspectos positivos imediatos, a ausência de participação popular no processo de ocupação pelo Estado desses espaços segregados têm levantado preocupações, não apenas quanto à eficiência do programa em longo prazo, como também com a possibilidade de instauração de um Estado policial altamente repressivo. Esse trabalho analisa a utilização de mecanismos de gestão e planejamento democráticos como forma de aprimorar o programa de ocupação das favelas, partindo do pressuposto de que a participação política pode contribuir para a maximização dos direitos fundamentais. Para isso, estuda-se com profundidade a história dos atores políticos presentes nessas comunidades, além dos instrumentos existentes e possíveis no Direito Brasileiro para participação popular. Após a análise dos aspectos sociológicos e históricos que explicam a situação atual das favelas cariocas, ao fim, propõe-se um modelo de gestão democrática que aproveite ao máximo seu potencial de participação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desse trabalho foi utilizar métodos não destrutivos (END), como a microtomografia com Raio X e técnicas de obtenção e processamento de imagens, para obtenção da porosidade do concreto. Foram utilizados dois métodos. Em um método as imagens foram obtidas por meio de microtomografia por Raio X e no outro foi utilizado um escâner comercial para obtenção das imagens. Essas imagens foram processadas por meio de técnicas de processamento de pixel e morfologia matemática. Os resultados obtidos para a porosidade foram comparados com resultado obtido por meio do método proposto pela NBR 9778 (2005) (Absorção de água, índice de vazios e massa específica em argamassa e concreto endurecido). As imagens microtomográficas das amostras de concreto foram obtidas num sistema Skyscan 1172 com 256 tons de cinza, ajustadas em contraste, binarizadas e filtradas. No outro método foi utilizado um Escâner Comercial com resolução de 2400 dpi para adquirir as imagens, sendo também utilizadas técnicas de processamento de pixel e morfologia matemática para processá-las. Os resultados dos valores da porosidade mostraram compatibilidade entre os dois métodos apresentados e o método proposto pela NBR 9778 (2005). Observou-se que os resultados obtidos por microtomografia foram mais confiáveis, mas o método utilizando o escâner comercial se apresentou como um método aceitável por seus resultados e principalmente por seu baixo custo e facilidade de operação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os métodos numéricos convencionais, baseados em malhas, têm sido amplamente aplicados na resolução de problemas da Dinâmica dos Fluidos Computacional. Entretanto, em problemas de escoamento de fluidos que envolvem superfícies livres, grandes explosões, grandes deformações, descontinuidades, ondas de choque etc., estes métodos podem apresentar algumas dificuldades práticas quando da resolução destes problemas. Como uma alternativa viável, existem os métodos de partículas livre de malhas. Neste trabalho é feita uma introdução ao método Lagrangeano de partículas, livre de malhas, Smoothed Particle Hydrodynamics (SPH) voltado para a simulação numérica de escoamentos de fluidos newtonianos compressíveis e quase-incompressíveis. Dois códigos numéricos foram desenvolvidos, uma versão serial e outra em paralelo, empregando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA), que possibilita o processamento em paralelo empregando os núcleos das Graphics Processing Units (GPUs) das placas dedeo da NVIDIA Corporation. Os resultados numéricos foram validados e a eficiência computacional avaliada considerandose a resolução dos problemas unidimensionais Shock Tube e Blast Wave e bidimensional da Cavidade (Shear Driven Cavity Problem).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação é um estudo de caso com caráter exploratório (Rampazo, 2005; Babie, 2008). Na parte teórica, propomos a categorização triádica das imagens no ciberespaço, que é uma das contribuições deste trabalho para a área de estudos sobre leitura no ciberespaço. A investigação apresenta como objetivos acompanhar e analisar o processo leitor de um professor de espanhol como língua estrangeira no ciberespaço, tendo como foco a multimodalidade. Tais objetivos têm a função de nortear a resolução dos problemas de pesquisa, a saber: (a) como um professor de ELE lê no ciberespaço tendo em vista as imagens como aspectos da multimodalidade; (b) como esse professor transpõe sua própria atividade leitora e os materiais da internet para uma atividade de aula. Os instrumentos de coleta utilizados foram: entrevista, questionário, protocolos e gravações do GTK. O cruzamento entre 12 critérios de análise permitiu, dentre outros detalhes, observar que nosso sujeito lê textos verbais no ciberespaço movimentando o cursor do mouse como se fosse seus dedos sobre uma folha de papel a percorrer linha a linha da esquerda para a direita. Também percebemos que a experiência de leitura no ciberespaço (conhecimentos prévios) pode ser o fator que contribui para que o sujeito despreze as imagens de categorias mescladas (B e C) e prefira utilizar as imagens de categoria B, no caso, por exemplo, de acessar uma reportagem a partir de sua manchete em jornal eletrônico. Quanto à transposição de materiais para as aulas, percebemos que a formação acadêmica de nosso sujeito ao não direcionar discussões teóricas e metodológicas sobre as TICs e seu uso em sala de aula e sua realidade de trabalho podem ter contribuído para o modo como o sujeito transpõe os materiais da internet para as aulas. As adaptações e afastamentos desses materiais não são trabalhados em sala de aula. As imagens e links são retirados e o texto utilizado na atividade docente é uma mistura de vários materiais provenientes de diferentes países, mas sem a fonte especificada na aula. O papel que a formação tem para a vida profissional e para a práxis do professor não pode ser descartado. Defendemos que uma formação que seja direcionada às TICs deve fazer parte do currículo acadêmico

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento dedeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.