999 resultados para Oleo de abacate - Processamento
Resumo:
Este documento apresenta o Lyra, um novo esquema de derivação de chaves, baseado em esponjas criptográficas. O Lyra foi projetado para ser estritamente sequencial, fornecendo um nível elevado de segurança mesmo contra atacantes que utilizem múltiplos núcleos de processamento, como uma GPU ou FPGA. Ao mesmo tempo possui uma implementação simples em software e permite ao usuário legítimo ajustar o uso de memória e tempo de processamento de acordo com o nível de segurança desejado. O Lyra é, então, comparado ao scrypt, mostrando que esta proposta fornece um nível se segurança mais alto, além de superar suas deficiências. Caso o atacante deseje realizar um ataque utilizando pouca memória, o tempo de processamento do Lyra cresce exponencialmente, enquanto no scrypt este crescimento é apenas quadrático. Além disto, para o mesmo tempo de processamento, o Lyra permite uma utilização maior de memória, quando comparado ao scrypt, aumentando o custo de ataques de força bruta.
Resumo:
Foram conduzidos dois experimentos com o intuito de se avaliar o desempenho, características de carcaça e parâmetros ruminais de bovinos Nelore recebendo dietas contendo grãos de milho flint processados de diferentes formas em associação a diferentes aditivos e níveis de FDN de silagem de milho (FDNf). No Experimento 1, 239 tourinhos (PCI=350±26,79kg) foram alojados em 40 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento dos grãos de milho (moagem fina e floculação) e diferentes aditivos (monensina sódica; 25 ppm e formulação A062 a base de virginiamicina; produto teste, não comercial, fornecido pela Ourofino Saúde Animal; nas dosagens de 17 e 25 ppm), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação aumentou o peso final, o ganho de peso diário, a eficiência alimentar, o peso da carcaça quente e tendeu a aumentar o rendimento de carcaça em comparação a moagem fina. Houve tendência de interação entre processamento e fornecimento de aditivos para a ingestão de matéria seca e ganho de peso diário. A floculação reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total, aumentou os valores de energia liquida para manutenção e ganho da dieta e o numero médio de papilas ruminais. Os aditivos aumentaram a altura, largura e área das papilas e reduziram a espessura de faixa de queratina em relação ao tratamento controle. Houve tendência das formulações a base de virginiamicina aumentarem o peso da carcaça quente dos animais em comparação com a monensina sódica, mas não em relação ao tratamento controle sem aditivo. A floculação foi mais efetiva para aumentar a digestiblidade do amido no trato total, o valor energético do milho e o desempenho dos bovinos enquanto que os aditivos não foram efetivos para aumentar o valor energético das dietas e a eficiência alimentar dos animais. No Experimento 2, 237 tourinhos (PCI=350±28,49kg) foram alojados em 32 baias de acordo com o peso corporal inicial e receberam dietas contendo dois tipos de processamento (moagem grosseira e floculação) e diferentes níveis de FDNf (4; 7; 10 e 13% MS), totalizando 8 tratamentos. Os dados foram analisados pelo PROC MIXED do SAS. A floculação tendeu a aumentar a eficiência alimentar, o peso da carcaça quente e a espessura de gordura subcutânea, reduziu o teor de amido fecal, aumentou a digestibilidade do amido no trato total como também aumentou os valores de energia liquida para manutenção e para ganho das dietas. Os níveis de FDNf afetaram ingestão de matéria seca e o peso da carcaça quente independente do método de processamento. Houve tendência de aumento linear no GPD e tendência de redução quadrática na eficiência alimentar com inclusão crescente de FDNf. A inclusão de silagem de milho em dietas com alto teor de milho flint reduziu a eficiência alimentar dos animais, mas aumentou o peso da carcaça quente. A floculação aumentou o valor energético do cereal para tourinhos Nelore em dietas com alto teor de energia.
Resumo:
O presente trabalho apresenta uma alternativa ao processo de classificação do defeito da segregação central em amostras de aço, utilizando as imagens digitais que são geradas durante o ensaio de Baumann. O algoritmo proposto tem como objetivo agregar as técnicas de processamento digital de imagens e o conhecimento dos especialistas sobre o defeito da segregação central, visando a classificação do defeito de referência. O algoritmo implementado inclui a identificação e a segmentação da linha segregada por meio da aplicação da transformada de Hough e limiar adaptativo. Adicionalmente, o algoritmo apresenta uma proposta para o mapeamento dos atributos da segregação central nos diferentes graus de severidade do defeito, em função dos critérios de continuidade e intensidade. O mapeamento foi realizado por meio da análise das características individuais, como comprimento, largura e área, dos elementos segmentados que compõem a linha segregada. A avaliação do desempenho do algoritmo foi realizada em dois momentos específicos, de acordo com sua fase de implementação. Para a realização da avaliação, foram analisadas 255 imagens de amostras reais, oriundas de duas usinas siderúrgicas, distribuídas nos diferentes graus de severidade. Os resultados da primeira fase de implementação mostram que a identificação da linha segregada apresenta acurácia de 93%. As classificações oriundas do mapeamento realizado para as classes de criticidade do defeito, na segunda fase de implementação, apresentam acurácia de 92% para o critério de continuidade e 68% para o critério de intensidade.
Resumo:
O objetivo deste trabalho é prover um aplicativo de celular e um protocolo para aquisição de imagens para contagem dos ovos de Aedes aegypti com as seguintes características: facilidade de uso, alta acurácia e custo baixo. O mosquito Ae. aegypti, popularmente conhecido como mosquito da dengue, é um importante vetor de arboviroses como a própria dengue, a chikungunya, a zika e a febre amarela em seu ciclo urbano. O monitoramento entomológico é uma maneira de melhorar a capacidade de predição e na detecção precoce de epidemias das doenças mencionadas. Este monitoramento é majoritariamente baseado no índice larvário, o qual lista a quantidade de casas infectadas, ou a quantidade de ovos de Aedes coletados em palhetas em ovitrampas. Estas palhetas são normalmente de eucatex, mas existem pesquisas atuais testando o algodão.A contagem dos ovos coletados em ovitrampas é feita manualmente, a qual demanda tempo, profissionais qualificados para o manuseio de equipamento laboratorial (lupas e microscópios) e conhecimento entomológico. Buscou-se criar um método para acelerar o trabalho feito pelos profissionais em controle entomológico. A metodologia contou com a criação de um aplicativo e com um processo de contagem dos ovos, o qual consiste em quatro passos: a) Fotografar as palhetas em ovitrampas utilizando de uma câmera de celular; b) Transformar as fotos em uma imagem binarizada, removendo todos os elementos que não são ovos; c) Contar a área de cada elemento; d) A partir do uso de um classificador especialmente desenvolvido, estimar a quantidade de ovos baseado na área de cada elemento. Nos resultados, foi possível notar que houve uma disparidade na contagem de ovos em palhetas de algodão, a qual teve um erro médio próximo a zero, em relação às palhetas de eucatex, as quais tiveram erro médio acima de 5\%. Dos pontos mais importantes das conclusões, destacam-se a possibilidade de melhoria contínua do aplicativo por permanecer na nuvem, com possibilidade de avanços conforme novas descobertas, assim como o excelente custo-benefício obtido, por conseguir operar com baixo custo monetário.
Resumo:
In recent decades, changes in the surface properties of materials have been used to improve their tribological characteristics. However, this improvement depends on the process, treatment time and, primarily, the thickness of this surface film layer. Physical vapor deposition (PVD) of titanium nitrate (TiN) has been used to increase the surface hardness of metallic materials. Thus, the aim of the present study was to propose a numerical-experimental method to assess the film thickness (l) of TiN deposited by PVD. To reach this objective, experimental results of hardness (H) assays were combined with a numerical simulation to study the behavior of this property as a function of maximum penetration depth of the indenter (hmax) into the film/substrate conjugate. Two methodologies were adopted to determine film thickness. The first consists of the numerical results of the H x hmax curve with the experimental curve obtained by the instrumental indentation test. This methodology was used successfully in a TiN-coated titanium (Ti) conjugate. A second strategy combined the numerical results of the Hv x hmax curve with Vickers experimental hardness data (Hv). This methodology was applied to a TiN-coated M2 tool steel conjugate. The mechanical properties of the materials studied were also determined in the present study. The thicknesses results obtained for the two conjugates were compatible with their experimental data.
Resumo:
Several are the areas in which digital images are used in solving day-to-day problems. In medicine the use of computer systems have improved the diagnosis and medical interpretations. In dentistry it’s not different, increasingly procedures assisted by computers have support dentists in their tasks. Set in this context, an area of dentistry known as public oral health is responsible for diagnosis and oral health treatment of a population. To this end, oral visual inspections are held in order to obtain oral health status information of a given population. From this collection of information, also known as epidemiological survey, the dentist can plan and evaluate taken actions for the different problems identified. This procedure has limiting factors, such as a limited number of qualified professionals to perform these tasks, different diagnoses interpretations among other factors. Given this context came the ideia of using intelligent systems techniques in supporting carrying out these tasks. Thus, it was proposed in this paper the development of an intelligent system able to segment, count and classify teeth from occlusal intraoral digital photographic images. The proposed system makes combined use of machine learning techniques and digital image processing. We first carried out a color-based segmentation on regions of interest, teeth and non teeth, in the images through the use of Support Vector Machine. After identifying these regions were used techniques based on morphological operators such as erosion and transformed watershed for counting and detecting the boundaries of the teeth, respectively. With the border detection of teeth was possible to calculate the Fourier descriptors for their shape and the position descriptors. Then the teeth were classified according to their types through the use of the SVM from the method one-against-all used in multiclass problem. The multiclass classification problem has been approached in two different ways. In the first approach we have considered three class types: molar, premolar and non teeth, while the second approach were considered five class types: molar, premolar, canine, incisor and non teeth. The system presented a satisfactory performance in the segmenting, counting and classification of teeth present in the images.
Resumo:
Several are the areas in which digital images are used in solving day-to-day problems. In medicine the use of computer systems have improved the diagnosis and medical interpretations. In dentistry it’s not different, increasingly procedures assisted by computers have support dentists in their tasks. Set in this context, an area of dentistry known as public oral health is responsible for diagnosis and oral health treatment of a population. To this end, oral visual inspections are held in order to obtain oral health status information of a given population. From this collection of information, also known as epidemiological survey, the dentist can plan and evaluate taken actions for the different problems identified. This procedure has limiting factors, such as a limited number of qualified professionals to perform these tasks, different diagnoses interpretations among other factors. Given this context came the ideia of using intelligent systems techniques in supporting carrying out these tasks. Thus, it was proposed in this paper the development of an intelligent system able to segment, count and classify teeth from occlusal intraoral digital photographic images. The proposed system makes combined use of machine learning techniques and digital image processing. We first carried out a color-based segmentation on regions of interest, teeth and non teeth, in the images through the use of Support Vector Machine. After identifying these regions were used techniques based on morphological operators such as erosion and transformed watershed for counting and detecting the boundaries of the teeth, respectively. With the border detection of teeth was possible to calculate the Fourier descriptors for their shape and the position descriptors. Then the teeth were classified according to their types through the use of the SVM from the method one-against-all used in multiclass problem. The multiclass classification problem has been approached in two different ways. In the first approach we have considered three class types: molar, premolar and non teeth, while the second approach were considered five class types: molar, premolar, canine, incisor and non teeth. The system presented a satisfactory performance in the segmenting, counting and classification of teeth present in the images.
Resumo:
The environment in which we live in, we constantly deal with a huge amount of dynamic information, thus, attention is an indispensable cognitive resource that allows an effective selection of stimuli for our survival. From this, investigating how we process our encouragement in movements and how the attention spreads into a space to serve more than one stimuli simultanously is something very important. The behavioural urgence hipothesis suggests that the encouragement in a movement of approaching shows a certain priority in the process related to objects which are in a movement away, but there are researches that point out that it might not happen in an attentive phase, but instead as a priorization of motor response. There are also many controversies found in researches about attentive focalization, in which some studies suggest that the focus of attention would work in a similar manner to a zoom lens, while some searches indicate that the focus of attention could be shared to answer some stimuli in non contiguous regions. This study tried to investigate through two experiments the effect of attentive priorization by encouragement in movements and how the attention is spread with distractors stimuli. The first experiment investigated if the amount of moving flows really influenced in the process of information. The results indicate an effect of priorization of the flows guided in relation to aleatory ones and also from the unique flow due to dual flow. The second experiment investigated how the distribution of attention is in a space with the use of flows as an exogenous cue. The results indicate that the focus of attention works as the one suggested in the zoom lens model.
Resumo:
Nesta dissertação apresentamos um trabalho de desenvolvimento e utilização de pulsos de radiofreqüência modulados simultaneamente em freqüência, amplitude e fase (pulsos fortemente modulados, SMP, do inglês Strongly Modulated Pulses) para criar estados iniciais e executar operações unitárias que servem como blocos básicos para processamento da informação quântica utilizando Ressonância Magnética Nuclear (RMN). As implementações experimentais foram realizas em um sistema de 3 q-bits constituído por spins nucleares de Césio 133 (spin nuclear 7/2) em uma amostra de cristal líquido em fase nemática. Os pulsos SMP´s foram construídos teoricamente utilizando um programa especialmente desenvolvido para esse fim, sendo o mesmo baseado no processo de otimização numérica Simplex Nelder-Mead. Através deste programa, os pulsos SMP foram otimizados de modo a executarem as operações lógicas desejadas com durações consideravelmente menores que aquelas realizadas usando o procedimento usual de RMN, ou seja, seqüências de pulsos e evoluções livres. Isso tem a vantagem de reduzir os efeitos de descoerência decorrentes da relaxação do sistema. Os conceitos teóricos envolvidos na criação dos SMPs são apresentados e as principais dificuldades (experimentais e teóricas) que podem surgir devido ao uso desses procedimentos são discutidas. Como exemplos de aplicação, foram produzidos os estados pseudo-puros usados como estados iniciais de operações lógicas em RMN, bem como operações lógicas que foram posteriormente aplicadas aos mesmos. Utilizando os SMP\'s também foi possível realizar experimentalmente os algoritmos quânticos de Grover e Deutsch-Jozsa para 3 q-bits. A fidelidade das implementações experimentais foi determinadas utilizando as matrizes densidade experimentais obtidas utilizando um método de tomografia da matriz densidade previamente desenvolvido.
Resumo:
As teorias do processamento da informação (PI) procuram respostas sobre o modo como o ser humano, processa a informação mentalmente (Cid, 2005). A grande preocupação centra-se na compreensão dos “fenómenos que se passam no interior da caixa negar” (Alves, 1995, pp.32 cit. Cid, 2005). Algures por todo o mundo cerca de 6 a 15%, da população (Nathan, 1979) tem dislexia. Apresentando dificuldades em aprender com problemas gerais de processamento da informação (Fonseca 1999). Nestes casos os fenómenos da “caixa negra” têm uma particular movimentação, e estas diferenças estão patentes 24horas por dia, 7 dias da semana, sendo uma dificuldade de aprendizagem para toda a vida (Frank & Livingston, 2004). Neste estudo verificamos as diferenças do processamento da informação através do tempo de reacção, atenção e memória entre sujeitos disléxicos (D) e não-disléxicos (ND). A amostra geral é constituída por 22 sujeitos de ambos os sexos, distinguida em dois grupos, o grupo de 10 D e 12 ND com idades compreendidas entre os 18 e 46 anos de idade (média ± desvio padrão de 25,40 ± 2,71). Os instrumentos de trabalho utilizados para tal propósito, foram os seguintes: o teste de barragem de Toulouse-Piéron (atenção Concentrada); O teste de memória visual Menvis-A (MV2); diversas provas de tempo de reacção (simples e de escolha) e o teste do quadro de Schultz (atenção distribuída). Os principais resultados obtidos indicam que o grupo de D são mais lentos no processamento da informação que o grupo de ND. Os resultados apontam que a atenção concentrada é semelhante entre os grupos, mas quanto à atenção distribuição o grupo de ND tem muito melhor performance que o grupo de D. Relativamente ao armazenam a informação visual a curto prazo o desempenho é semelhante para ambos os grupos. No entanto os ND reagem mais rápido aos estímulos que aparecem que os D, o que se reflecte na tomada de decisão, quando aumentam os estímulos que lhe são apresentados os D demoram mais tempo na tomada de decisão que os ND.
Resumo:
Através do processamento de dados sísmicos convertem-se registos de campo em secções sísmicas com significado geológico, que revelam informações e ajudam a delinear as camadas geológicas do subsolo e identificar estruturas soterradas. Portanto, a interpretação dos dados sísmicos só é boa se o processamento também o for. Este trabalho é resultado de um estágio curricular na empresa de prospecção geofísica GeoSurveys, que consistiu principalmente em processar 18 linhas de dados de sísmica de reflexão multicanal de alta resolução adquiridas na ilha de Pulau Tekong em Singapura, que têm como finalidade investigação do solo da baia desta mesma ilha. Estes dados foram cedidos à GeoSurveys para fins académicos, caso em que se inclui esta dissertação. Para atingir os objectivos propostos que consistiam em avaliar o impacto das condições de operação na qualidade do sinal sísmico e interpretação das linhas, fez-se o processamento das linhas utilizando um fluxo processamento padrão utilizado na empresa, com recurso ao software Radex Pro. Este fluxo de processamento tem como mais-valia o método de correcções estáticas, o UHRS trim statics, além das técnicas habituais utilizadas para melhorar a resolução das secções sísmicas como é o caso da desconvolução, a atenuação de ruído através do stacking, correcções de NMO, e migração, entre outras técnicas. A interpretação das linhas sísmicas processadas foi feita no software Kingdom Suite (IHS), através da distinção da configuração interna dos reflectores em cada secção sísmica, estabelecendo deste modo as principais unidades sismo-estratigráficas e identificando as zonas de interface que delimitam os horizontes principais. Foi feito ainda um estudo geológico sumário da área de pesquisa e da evolução geodinâmica da região.