996 resultados para Processamento de imagens - Técnicas digitais
Resumo:
Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.
Resumo:
A celulose é o polímero natural renovável disponível em maior abundância atualmente. Por possuir estrutura semicristalina, é possível extrair seus domínios cristalinos através de procedimentos que ataquem sua fase amorfa, como a hidrólise ácida, obtendo-se assim partículas cristalinas chamadas nanopartículas de celulose (NCs). Estas nanopartículas têm atraído enorme interesse científico, uma vez que possuem propriedades mecânicas, como módulo de elasticidade e resistência à tração, semelhantes a várias cargas inorgânicas utilizadas na fabricação de compósitos. Além disso, possuem dimensões nanométricas, o que contribui para menor adição de carga à matriz polimérica, já que possuem maior área de superfície, quando comparadas às cargas micrométricas. Nanocompósitos formados pela adição destas cargas em matrizes poliméricas podem apresentar propriedades comerciais atraentes, como barreira a gases, melhores propriedades térmicas e baixa densidade, quando comparados aos compósitos tradicionais. Como se trata de uma carga com dimensões nanométricas, obtida de fontes renováveis, uma das principais áreas de interesse para aplicação deste reforço é em biopolímeros biodegradáveis. O poli(ácido lático) (PLA), é um exemplo de biopolímero com propriedades mecânicas, térmicas e de processamento superiores a de outros biopolímeros comerciais. No presente trabalho foram obtidas nanopartículas de celulose (NCs), por meio de hidrólise ácida, utilizando-se três métodos distintos, com o objetivo de estudar o método mais eficiente para a obtenção de NCs adequadas à aplicação em compósitos de PLA. Os Métodos I e II empregam extração das NCs por meio do H2SO4, diferenciando-se apenas pela neutralização, a qual envolve diálise ou neutralização com NaHCO3, respectivamente. No Método III a extração das NCs foi realizada com H3PO4. As NCs foram caracterizadas por diferentes técnicas, como difração de raios X (DRX), análise termogravimétrica (TG), espectroscopia vibracional de absorção no infravermelho (FTIR), microscopia eletrônica de transmissão (MET) e microscopia de força atômica (MFA). Os resultados de caracterização das NCs indicaram que, a partir de todos os métodos utilizados, há formação de nanocristais de celulose (NCCs), entretanto, apenas os NCCs obtidos pelos Métodos II e III apresentaram estabilidade térmica suficiente para serem empregados em compósitos preparados por adição da carga no polímero em estado fundido. A incorporação das NCs em matriz de PLA foi realizada em câmara de mistura, com posterior moldagem por prensagem a quente. Compósitos obtidos por adição de NCs obtidas pelo Método II foram caracterizados por calorimetria exploratória diferencial (DSC), análise termogravimétrica, microscopia óptica, análises reológicas e microscopia eletrônica de varredura (MEV). A adição de NCs, extraídas pelo Método II, em matriz de PLA afetou o processo de cristalização do polímero, o qual apresentou maior grau de cristalinidade. Além disso, a adição de 3% em massa de NCs no PLA foi suficiente para alterar seu comportamento reológico. Os resultados reológicos indicaram que a morfologia do compósito é, predominantemente, composta por uma dispersão homogênea e fina da carga na fase matriz. Micrografias obtidas por MEV corroboram os resultados reológicos, mostrando, predominantemente a presença de partículas de NC em escala nanométrica. Compósitos de PLA com NCs obtidas pelo Método III apresentaram aglomerados de partículas de NC em escala micro e milimétrica, ao longo da fase matriz, e não foram extensivamente caracterizados.
Resumo:
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Identificação de padrões de uso do solo urbano em São Paulo/SP utilizando parâmetros de variogramas.
Resumo:
As imagens de alta resolução espacial impulsionaram os estudos de Sensoriamento Remoto em ambientes urbanos, já que elas permitem uma melhor distinção dos elementos que compõem esse ambiente tão heterogêneo. Técnicas de Geoestatística são cada vez mais utilizadas em estudos de Sensoriamento Remoto e o variograma é uma importante ferramenta de análise geoestatística, pois permitem entender o comportamento espacial de uma variável regionalizada, neste caso, os níveis de cinza de uma imagem de satélite. O presente trabalho pretende avaliar a proposta metodológica que consiste em identificar padrões residenciais urbanos de três classes de uso e ocupação do solo por meio da análise dos valores apresentados pelos parâmetros, alcance, patamar e efeito pepita de um variograma. A hipótese é que os valores correspondentes a esses parâmetros representem o comportamento espectral padrão de cada classe e, portando, indicam que há um padrão na organização espacial de cada uma das classes. Para a presente pesquisa foram utilizadas imagem IKONOS 2002, e a classificação de uso e ocupação do solo da sub-bacia do córrego Bananal na bacia do Rio Cabuçu de Baixo em São Paulo SP. Amostras das imagens de cada classe foram extraídas e os valores de nível de cinza em cada pixel foram utilizados para calcular os variogramas. Após análise dos resultados obtidos, apenas o parâmetro alcance foi levado em consideração, pois é através desse parâmetro que se observa o grau de homogeneidade de cada amostra. Os valores de alcance obtidos nos cálculos dos variogramas identificaram com melhor precisão a classe Conjuntos Residenciais que é uma classe com padrões e características singulares, já a identificação das classes Ocupação Densa Regular e Ocupação Densa Irregular não obteve uma precisão boa, sendo que essas classes são similares em diversos aspectos.
Resumo:
O ouro, assim como outros bens minerais, é uma commodity, ou seja, um produto não diferenciado, com preço determinado pelo mercado internacional, sem a interferência de seus produtores. Diante desse cenário, associado à exaustão dos depósitos minerais de maiores teores, as mineradoras vêm buscando melhores formas de aproveitamento de matérias-primas minerais mais complexas quanto à extração e ao beneficiamento. Os retornos financeiros são obtidos no estrito controle da produção com redução de custos e mitigação de perdas nas operações unitárias. A caracterização tecnológica está inserida como uma abordagem multidisciplinar e fundamental para o melhor aproveitamento dos bens minerais. Possibilita um maior conhecimento do minério e das associações minerais presentes, que auxiliará no desenvolvimento das alternativas de explotação e na otimização do processo em funcionamento. Dentre os procedimentos de caracterização das associações minerais mais acurados citam-se os sistemas automatizados de análise de imagens adquiridas por microscopia eletrônica de varredura. Permitem a avaliação qualitativa ou quantitativa de grande número de partículas quanto à composição química e mineral, partição de elementos nos minerais presentes, formas de associações e liberação entre os minerais. Este estudo se concentra na caracterização de quatro amostras mineralizadas a ouro, de diferentes regiões do Brasil, pela análise automatizada de imagens e por métodos laboratoriais de separações minerais e extração hidrometalúrgica do ouro. A combinação de procedimentos laboratoriais com a análise de imagens permitiu confrontar os resultados das recuperações potenciais, fornecendo subsídios para abordagens de processo, para obtenção da máxima recuperação do ouro e para diagnosticar as características interferentes nesses processos.
Resumo:
A aquisição experimental de sinais neuronais é um dos principais avanços da neurociência. Por meio de observações da corrente e do potencial elétricos em uma região cerebral, é possível entender os processos fisiológicos envolvidos na geração do potencial de ação, e produzir modelos matemáticos capazes de simular o comportamento de uma célula neuronal. Uma prática comum nesse tipo de experimento é obter leituras a partir de um arranjo de eletrodos posicionado em um meio compartilhado por diversos neurônios, o que resulta em uma mistura de sinais neuronais em uma mesma série temporal. Este trabalho propõe um modelo linear de tempo discreto para o sinal produzido durante o disparo do neurônio. Os coeficientes desse modelo são calculados utilizando-se amostras reais dos sinais neuronais obtidas in vivo. O processo de modelagem concebido emprega técnicas de identificação de sistemas e processamento de sinais, e é dissociado de considerações sobre o funcionamento biofísico da célula, fornecendo uma alternativa de baixa complexidade para a modelagem do disparo neuronal. Além disso, a representação por meio de sistemas lineares permite idealizar um sistema inverso, cuja função é recuperar o sinal original de cada neurônio ativo em uma mistura extracelular. Nesse contexto, são discutidas algumas soluções baseadas em filtros adaptativos para a simulação do sistema inverso, introduzindo uma nova abordagem para o problema de separação de spikes neuronais.
Resumo:
Reticulados têm sido aplicados de diferentes maneiras em criptografia. Inicialmente utilizados para a destruição de criptossistemas, eles foram posteriormente aplicados na construção de novos esquemas, incluindo criptossistemas assimétricos, esquemas de assinatura cega e os primeiros métodos para encriptação completamente homomórfica. Contudo, seu desempenho ainda é proibitivamente lenta em muitos casos. Neste trabalho, expandimos técnicas originalmente desenvolvidas para encriptação homomórfica, tornando-as mais genéricas e aplicando-as no esquema GGH-YK-M, um esquema de encriptação de chave pública, e no esquema LMSV, a única construção homomórfica que não sucumbiu a ataques de recuperação de chaves IND-CCA1 até o momento. Em nossos testes, reduzimos o tamanho das chaves do GGH-YK-M em uma ordem de complexidade, especificamente, de O(n2 lg n) para O(n lg n), onde n é um parâmetro público do esquema. A nova técnica também atinge processamento mais rápido em todas as operações envolvidas em um criptossistema assimétrico, isto é, geração de chaves, encriptação e decriptação. A melhora mais significativa é na geração de chaves, que se torna mais de 3 ordens de magnitude mais rápida que resultados anteriores, enquanto a encriptação se torna por volta de 2 ordens de magnitude mais rápida. Para decriptação, nossa implementação é dez vezes mais rápida que a literatura. Também mostramos que é possível aumentar a segurança do esquema LMSV contra os ataques quânticos de recuperação de chaves recentemente publicados pela agência britânica GCHQ. Isso é feito através da adoção de reticulados não-ciclotômicos baseados em anéis polinomiais irredutíveis quase-circulantes. Em nossa implementação, o desempenho da encriptação é virtualmente idêntico, e a decriptação torna-se ligeiramente inferior, um pequeno preço a se pagar pelo aumento de segurança. A geração de chaves, porém, é muito mais lenta, devido à necessidade de se utilizar um método mais genérico e caro. A existência de métodos dedicados altamente eficientes para a geração de chaves nesta variante mais segura do LMSV permanece como um problema em aberto.
Resumo:
A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM.
Resumo:
Tese de mestrado integrado em Engenharia Biomédica e Biofísica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
O objetivo deste trabalho é identificar a inserção das competências digitais no modelo de gestão de competências de uma organização pública brasileira de abrangência nacional. Utilizou-se, para tanto, de um conjunto de técnicas de investigação. Inicialmente, realizou-se a análise documental do modelo de competência da organização pública, objetivando relacioná-lo ao quadro de competências digitais proposto no âmbito do projeto DigComp, desenvolvido pela European Community e que, neste trabalho, é tomado como referência teórica para a análise dos dados coletados. A análise de conteúdo nos moldes propostos por Bardin (1977) permitiu identificar se esse documento trazia vestígios das competências digitais do framework utilizado. Em seguida, por meio do aplicativo Google Forms, um questionário estruturado foi aplicado a 27 respondentes, lotados em uma gerência estadual da organização. Os dados coletados permitiram identificar a importância atribuída pelos respondentes às competências digitais do framework e foram mais intensamente explorados em um grupo focal conduzido junto a quatro empregados que exercem a função de liderança na mesma unidade. Os resultados apontam para uma percepção da importância das competências digitais pelos empregados e líderes, mesmo que sua presença não tenha sido identificada no modelo de gestão de competência da organização estudada. Por outro lado, apontam também para a dificuldade desses empregados e líderes na aplicação dessas competências nas tarefas cotidianas do trabalho.
Resumo:
Historicamente, ao serem criadas, novas mídias se apropriam de recursos de linguagens de outras mídias pré-existentes. Na medida em que as tecnologias da mídia se desenvolvem o mesmo ocorre com as linguagens, de forma a adaptarem-se, simultaneamente, ao meio e mensagens; modos de produção; e condições ideais de interação com os usuários. As mídias digitais, por sua natureza, dispõem de interfaces performáticas imagens-pensantes que permitem mais que a simples representação estética de conteúdos. Neste contexto, se insere a problemática desta pesquisa: Quais teorias transdisciplinares podem contribuir para a compreensão dos complexos processos comunicacionais que envolvem o relacionamento entre seres humanos e mídias digitais com propósito de aprendizagem? O objetivo desta pesquisa foi o de estender o modelo desenvolvido por Stephen Littlejohn e incluir novos conceitos e generalizações, provenientes de outros ramos da ciência com diferentes 'visões de mundo', visando ampliar a proposta de Littlejohn para um Modelo Transdisciplinar para Comunicação com Mídias Digitais, que, em nossa perspectiva, contribui para explicar os fenômenos pertinentes à relação de humanos com mídias digitais, principalmente em processos de aprendizagem de ciências. A pesquisa foi feita com métodos de pesquisa Bibliográfica e Descritiva.(AU)
Resumo:
A imagem radiográfica digital adquirida pelo sistema de placa de fósforo foto ativada é normalmente visualizada no monitor do computador no formato DICOM, caracterizado pela alta resolução das imagens. Como este formato ocupa muito espaço para armazenamento, as imagens digitais são submetidas a uma compressão, que otimiza a capacidade de espaço dos computadores e reduz o tempo de transmissão pela Internet. O objetivo desse estudo foi avaliar a influência da compressão TIFF e JPEG na reprodutibilidade intra e interexaminador da marcação de pontos cefalométricos em imagens de telerradiografias em norma lateral comparadas com o formato DICOM. A amostra consistiu de 90 imagens de telerradiografias obtidas a partir de 30 indivíduos, dos quais se obteve uma radiografia digital exibida no formato DICOM. Estas imagens foram convertidas para os formatos JPEG, com Fator de Qualidade 80 e TIFF. Após o cegamento e randomização da amostra, três ortodontistas calibrados marcaram a localização de 15 pontos cefalométricos em cada imagem utilizando o sistema de coordenadas x e y. Os resultados mostraram que as marcações dos pontos cefalométricos apresentaram concordância de reprodutibilidade tanto intra como interexaminador, exceto para os pontos Go, Po, Or, B e Pog . Os diferentes formatos de arquivo mostraram resultados estatisticamente semelhantes para cada ponto e eixo aferido. As compressões JPEG e TIFF estudadas não tiveram efeito, em imagens de telerradiografias em norma lateral, na reprodutibilidade intra e interexaminadores da marcação dos pontos cefalométricos testados.(AU)
Resumo:
Esta tese teve por objetivo saber como o corpo docente da Universidade Estadual de Mato Grosso do Sul (UEMS) percebe, entende e reage ante a incorporação e utilização das Tecnologias de Informação e Comunicação (TICs) nos cursos de graduação dessa Instituição, considerando os novos processos comunicacionais dialógicos que elas podem proporcionar na sociedade atual. Metodologicamente, a tese é composta por pesquisa bibliográfica, buscando fundamentar as áreas da Educação e Comunicação, assim como a Educomunicação; pesquisa documental para contextualização do lócus da pesquisa e de uma pesquisa exploratória a partir da aplicação de um questionário online a 165 docentes da UEMS, que responderam voluntariamente. Verificou-se que os professores utilizam as TICs cotidianamente nas atividades pessoais e, em menor escala, nos ambientes profissionais. Os desafios estão em se formar melhor esse docente e oferecer capacitação continuada para que utilizem de forma mais eficaz as TICs nas salas de aula. Destaca-se ainda que os avanços em tecnologia e os novos ecossistemas comunicacionais construíram novas e outras realidades, tornando a aprendizagem um fator não linear, exigindo-se revisão nos projetos pedagógicos na educação superior para que estes viabilizem diálogos propositivos entre a comunicação e a educação. A infraestrutura institucional para as TICs é outro entrave apontado, tanto na aquisição como na manutenção desses aparatos tecnológicos pela Universidade. Ao final, propõe-se realizar estudos e pesquisas que possam discutir alterações nos regimes contratuais de trabalho dos docentes, uma vez que, para atuar com as TICs de maneira apropriada, exige-se mais tempo e dedicação do docente.
Resumo:
In the shallow continental shelf in Northeastern Rio Grande do Norte - Brazil, important underwater geomorphological features can be found 6km from the coastline. They are coral reefs, locally known as “parrachos”. The present study aims to characterize and analyze the geomorphological feature as well as the ones of the benthic surface, and the distribution of biogenic sediments found in parrachos at Rio do Fogo and associated shallow platforms, by using remote sensing products and in situ data collections. This was made possible due to sedimentological, bathymetric and geomorphological maps elaborated from composite bands of images from the satellite sensors ETM+/Landsat-7, OLI/Landsat-8, MS/GeoEye and PAN/WordView-1, and analysis of bottom sediments samples. These maps were analyzed, integrally interpreted and validated in fieldwork, thus permitting the generation of a new geomorphological zoning of the shallow shelf in study and a geoenvironmental map of the Parrachos in Rio do Fogo. The images used were subject to Digital Image Processing techniques. All obtained data and information were stored in a Geographic Information System (GIS) and can become available to the scientific community. This shallow platform has a carbonate bottom composed mostly by algae. Collected and analyzed sediment samples can be classified as biogenic carbonatic sands, as they are composed 75% by calcareous algae, according to the found samples. The most abundant classes are green algae, red algae, nonbiogenic sediments (mineral grains), ancient algae and molluscs. At the parrachos the following was mapped: Barreta Channel, intertidal reefs, submerged reefs, the spur and grooves, the pools, the sandy bank, the bank of algae, sea grass, submerged roads and Rio do Fogo Channel. This work presents new information about geomorphology and evolution in the study area, and will be guiding future decision making in the handling and environmental management of the region
Resumo:
The reverse time migration algorithm (RTM) has been widely used in the seismic industry to generate images of the underground and thus reduce the risk of oil and gas exploration. Its widespread use is due to its high quality in underground imaging. The RTM is also known for its high computational cost. Therefore, parallel computing techniques have been used in their implementations. In general, parallel approaches for RTM use a coarse granularity by distributing the processing of a subset of seismic shots among nodes of distributed systems. Parallel approaches with coarse granularity for RTM have been shown to be very efficient since the processing of each seismic shot can be performed independently. For this reason, RTM algorithm performance can be considerably improved by using a parallel approach with finer granularity for the processing assigned to each node. This work presents an efficient parallel algorithm for 3D reverse time migration with fine granularity using OpenMP. The propagation algorithm of 3D acoustic wave makes up much of the RTM. Different load balancing were analyzed in order to minimize possible losses parallel performance at this stage. The results served as a basis for the implementation of other phases RTM: backpropagation and imaging condition. The proposed algorithm was tested with synthetic data representing some of the possible underground structures. Metrics such as speedup and efficiency were used to analyze its parallel performance. The migrated sections show that the algorithm obtained satisfactory performance in identifying subsurface structures. As for the parallel performance, the analysis clearly demonstrate the scalability of the algorithm achieving a speedup of 22.46 for the propagation of the wave and 16.95 for the RTM, both with 24 threads.