921 resultados para Threshing machines.
Resumo:
134 p.
Resumo:
Juntas coladas têm se mostrado como a principal alternativa de união entre componentes fabricados em materiais distintos ou não, tendo como vantagem principal a ausência de aporte de calor e melhor distribuição de tensões. A literatura mostra que estudos anteriores foram realizados com o objetivo de caracterizar diversas propriedades associados às juntas, porém, pouco ainda se conhece sobre o comportamento dessas uniões relacionado à fluência. Os ensaios de fluência têm como principal desvantagem a baixa produtividade de resultados visto que, na maioria dos casos, os equipamentos aptos a realizarem este tipo de teste ensaiam apenas um corpo de prova por vez. Neste caso, o tratamento estatístico é baseado em uma pequena quantidade de resultados, reduzindo a confiabilidade na predição do comportamento em fluência. O Laboratório de Adesão e Aderência (LAA/UERJ/IPRJ) desenvolveu o equipamento pneumático de fluência (EPF) capaz de realizar dez ensaios simultâneos com parâmetros distintos. Este trabalho investiga o comportamento de juntas de cisalhamento simples (SLJ) compostas por substratos metálicos colados com adesivo epóxi e poliuretano. As juntas foram fabricadas em conformidade a norma ASTM D 1002, seguindo procedimento de preparo RT-003/08 TMC/CENPES/PETROBRAS. Os resultados mostram que, para projetos onde esteja prevista utilização das juntas durante longos períodos de tempo sob carregamento, conhecer apenas suas tensões médias de ruptura não é o suficiente para garantir a segurança do empreendimento. É proposto um modelo inicial do comportamento sob fluência de juntas coladas.
Resumo:
nterruptions in cardiopulmonary resuscitation (CPR) compromise defibrillation success. However, CPR must be interrupted to analyze the rhythm because although current methods for rhythm analysis during CPR have high sensitivity for shockable rhythms, the specificity for nonshockable rhythms is still too low. This paper introduces a new approach to rhythm analysis during CPR that combines two strategies: a state-of-the-art CPR artifact suppression filter and a shock advice algorithm (SAA) designed to optimally classify the filtered signal. Emphasis is on designing an algorithm with high specificity. The SAA includes a detector for low electrical activity rhythms to increase the specificity, and a shock/no-shock decision algorithm based on a support vector machine classifier using slope and frequency features. For this study, 1185 shockable and 6482 nonshockable 9-s segments corrupted by CPR artifacts were obtained from 247 patients suffering out-of-hospital cardiac arrest. The segments were split into a training and a test set. For the test set, the sensitivity and specificity for rhythm analysis during CPR were 91.0% and 96.6%, respectively. This new approach shows an important increase in specificity without compromising the sensitivity when compared to previous studies.
Resumo:
Tendo como pano de fundo a análise da metafísica do dualismo cartesiano de substâncias, a presente tese tem como objetivo examinar a questão sobre qual seria o sujeito dos predicados que denotam sentimentos nos textos de Descartes. A hipótese proposta é a de que apenas substâncias podem ser consideradas sujeitos últimos de inerência desses predicados. Apesar disso, será argumentado que os homens e animais, embora não sejam substâncias, podem ser considerados sujeitos de atribuição desses predicados, visto que eles possuem uma unidade especial, a saber, uma unidade de composição, que assegura tal atribuição. Para tanto, a tese será desenvolvida em três eixos principais. Partindo do exame da teoria cartesiana da substância e de suas definições, analisarei o conceito de substância extensa, levando em conta o debate existente entre as interpretações monistas e pluralistas deste conceito. Neste contexto, discutirei a especificidade do corpo humano em relação aos demais corpos da natureza, considerando alguns aspectos da teoria cartesiana dos animais-máquinas. Em seguida, tratarei da questão da unidade do homem, bem como de outros tipos de unidade reconhecidos por Descartes. Por fim, examinarei a teoria cartesiana da causalidade com o propósito de determinar quais teorias da causalidade, interacionista ou ocasionalista, na visão de Descartes, poderiam servir como modelos explicativos dos sentimentos humanos e dos sentimentos animais. A hipótese a ser defendida nesta tese está em consonância com a visão de que a teoria cartesiana das três noções primitivas particulares, a saber, pensamento, extensão e união, é plenamente compatível com o dualismo metafísico de substâncias que Descartes propõe e, portanto, não implica um enfraquecimento deste último.
Resumo:
A modernidade caracteriza-se por um período em que ocorreram profundas revoluções em curtos intervalos de tempo. Nela, o mundo analógico foi substituído, gradativamente, pelo digital e o mundo material passou a dividir espaço com a realidade virtual. Inicialmente representada pelo mito prometeico, a modernidade foi tomada pelo impulso fáustico que hoje se traduz no desejo de recriar a condição humana. Os tecnoprofetas da Inteligência Artificial anunciam para breve as maravilhas da pós-humanidade e se ocupam com criação de máquinas espirituais que, acreditam eles, libertarão o homem de sua condição orgânica. Ciente de que a sociedade se organiza em torno da ótica tecnocientífica e de que as inovações alteram significativamente o modo como a maioria dos seres humanos se relaciona com o tempo, com o espaço e com a vida, este estudo discute o modelo de desenvolvimento tecnológico, por entender que ele não mais constitui assunto de domínio exclusivamente técnico, mas, também, de interesse político. Ademais, com vistas a problematizar o que dá sentido à técnica, faz-se uma crítica ao modelo atual, no qual ela, a técnica, subordinada à razão intrumental, funciona como instrumento de alienação e discute as condições necessárias a sua democratização. O estudo começa examinando dois fenômenos considerados determinantes na configuração do cenário atual: o capitalismo cognitivo e a reificação-tecnológica, entendidos como construções monopolizadas pela ótica capital-tecnocientífica. A seguir, faz-se uma análise sobre as noções de técnica, tecnologia e razão técnica e discute-se o impacto do desenvolvimento tecnológico no ato médico. A medicina representa uma atividade de grande valor social para o bem estar humano, embora, nas últimas décadas, venha enfrentando uma quebra no vínculo de confiança entre médicos e pacientes, além de uma crise na identidade desse profissional que hoje enfrenta dificuldades para preservar sua autonomia, face ao mercado das novas tecnologias e estratégias de gestão. Nesse contexto, surgem novas questões a serem elaboradas e a serem respondidas por diferentes atores e áreas de conhecimento da sociedade que desejem contribuir com reflexões e propostas que façam frente aos problemas específicos de nosso tempo. O trabalho sugere, ainda, que noções como Vontade - no sentido arendtiano, ou como o Olhar atento - Josep Esquiról e como Habilidade artesanal - Richard Sennett, podem nos ajudar a compreender as incumbências de uma re-orientação ética, se quisermos construir um diálogo com a razão tecnocientífica em prol da liberdade humana.
Resumo:
O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas
Resumo:
O crescimento do uso dos aerogeradores de pequeno porte em áreas urbanas em todo o mundo aponta para um mercado em expansão e extremamente promissor, principalmente no brasil, onde o potencial eólico é grande. tratando-se de máquinas pequenas existe interesse dos consumidores residenciais na sua utilização, seja para economia de energia ou por adesão às fontes alternativas. existe uma grande quantidade de fabricantes no mundo incluindo aerogeradores de alta, média e baixa qualidade. com isso surge a necessidade de criar métodos que avaliem estes produtos quanto ao seu rendimento energético, como ocorrem com as geladeiras, lâmpadas, fogões e outros, a fim de resguardar a qualidade deste equipamento ao consumidor. a proposta é criar um ciclo de teste (ou ciclo de ventos) baseado nos perfis de comportamentos diários de ventos urbano obtidos através de medições reais feitos pelo projeto sonda. esse perfil será usado para testar os aerogeradores de até 1 kw em laboratório, com auxílio de um túnel de vento a fim de determinar o rendimento energético do conjunto gerador, servindo como método para o aprimoramento desses aparelhos. outra possibilidade é o uso desta metodologia no programa brasileiro de etiquetagem, que classifica os produtos em função de sua eficiência energética. este trabalho também pode ser usado para acreditação de laboratórios de certificação que avaliam produtos em função de sua eficiência e/ou rendimento, visto que a acreditação é uma ferramenta estabelecida em escala internacional para gerar confiança na atuação de organizações que executam atividades de avaliação da conformidade.
Resumo:
Turbomáquinas são máquinas operacionais que transferem energia mecânica entre um rotor e um fluido. Estas máquinas têm muitas aplicações industriais. Um dos componentes de uma turbomáquina responsável pela transferência da energia, ou receber a rotação do eixo e transformar em energia de fluido em caso de bomba ou transferir a energia do fluido para o eixo em caso de uma turbina, é o impelidor ou rotor. O fenómeno da cavitação envolve escoamento bifásico: o líquido a ser bombeado e as bolhas de vapor que são formadas durante o processo de bombeamento. O processo de formação dessas bolhas é complexo, mas ocorre principalmente devido a presença de regiões de pressões muito baixas. O colapso dessas bolhas pode muitas vezes levar a deterioração do material, dependendo da intensidade ou da velocidade de colapso das bolhas. O principal objetivo deste trabalho foi estudar o comportamento hidrodinâmico do escoamento nos canais do impelidor de uma turbomáquina do tipo radial usando recursos de fluidodinâmica computacional (CFD). Uma abordagem Euler-Lagrange acoplada com o modelo da equação de Langevin foi empregada para estimar a trajetória das bolhas. Resultados das simulações mostram as particularidades de um escoamento líquido-bolha de vapor passando em um canal de geometria curva, fornecendo assim informações que podem nos ajudar na prevenção da cavitação nessas máquinas.
Resumo:
The manufacturing industry is currently facing unprecedented challenges from changes and disturbances. The sources of these changes and disturbances are of different scope and magnitude. They can be of a commercial nature, or linked to fast product development and design, or purely operational (e.g. rush order, machine breakdown, material shortage etc.). In order to meet these requirements it is increasingly important that a production operation be flexible and is able to adapt to new and more suitable ways of operating. This paper focuses on a new strategy for enabling manufacturing control systems to adapt to changing conditions both in terms of product variation and production system upgrades. The approach proposed is based on two key concepts: (1) An autonomous and distributed approach to manufacturing control based on multi-agent methods in which so called operational agents represent the key physical and logical elements in the production environment to be controlled - for example, products and machines and the control strategies that drive them and (2) An adaptation mechanism based around the evolutionary concept of replicator dynamics which updates the behaviour of newly formed operational agents based on historical performance records in order to be better suited to the production environment. An application of this approach for route selection of similar products in manufacturing flow shops is developed and is illustrated in this paper using an example based on the control of an automobile paint shop.
Resumo:
Este estudo tem como objetivo focalizar o Programa Um Computador por Aluno (PROUCA), buscando observar nas práticas pedagógicas de uma escola da rede municipal do Rio de Janeiro os processos de ressignificação e recontextualização, empreendidos naquele espaço. O PROUCA é desenvolvido em âmbito mundial, mas chegou à escola do município do Rio de Janeiro somente em 2010, enquanto a rede estadual já contava com o mesmo em algumas unidades escolares há mais tempo. Embasando-me em autores como McLaren (2000), Geertz (2008), André (2010), dentre outros, desde meados de 2010 e até o final do ano de 2012, foi desenvolvida uma pesquisa de cunho etnográfico na primeira escola do município do Rio de Janeiro a receber o PROUCA. No que se refere aos aspectos metodológicos, além da observação sistemática do cotidiano da Escola Conecta, foram utilizados recursos como conversas informais, entrevistas gravadas e transcritas, fotografias, participação em atividades da escola, além da coleta de informações em bibliografias específicas e consulta das matérias divulgadas pelo site oficial do PROUCA e do site do One Laptop per Child (OLPC), projeto que inspirou o PROUCA. Busco apoio em alguns dos aportes teórico-analíticos da Teoria do Discurso (TD) de Ernesto Laclau (2006, 2010, 2011, 2013) no sentido de fornecer subsídios interpretativos para significantes que aparecem nos discursos que circulavam nos espaços de realização da pesquisa, relacionando-os ao uso das tecnologias. No contato com a Escola, pude observar as dificuldades e as estratégias desenvolvidas para se colocar em prática e utilizar estes equipamentos tanto pelos/as alunos/as quanto pelos/as professores/as e os problemas relacionados à produção de um currículo escolar que atenda à atual política de resultados. Tais propostas apresentam-se vinculadas à idéia de inovação pedagógica e tentando entender como esta inovação de fato se deu, focalizei o caso do PROUCA e seu discurso de inclusão digital, entendendo-o como um discurso híbrido que tenta se fixar como inovador
Resumo:
O objetivo deste trabalho é avaliar os riscos de ocorrências de intrusos em um sistema de computação em nuvem para sistemas distribuídos utilizando lógica nebulosa. A computação em nuvem é um tema que vem sendo bastante abordado e vem alavancando discussões calorosas, tanto na comunidade acadêmica quanto em palestras profissionais. Embora essa tecnologia esteja ganhando mercado, alguns estudiosos encontram-se céticos afirmando que ainda é cedo para se tirar conclusões. Isto se deve principalmente por causa de um fator crítico, que é a segurança dos dados armazenados na nuvem. Para esta dissertação, foi elaborado um sistema distribuído escrito em Java com a finalidade de controlar um processo de desenvolvimento colaborativo de software na nuvem, o qual serviu de estudo de caso para avaliar a abordagem de detecção de intrusos proposta. Este ambiente foi construído com cinco máquinas (sendo quatro máquinas virtuais e uma máquina real). Foram criados dois sistemas de inferência nebulosos, para análise de problemas na rede de segurança implementados em Java, no ambiente distribuído. Foram realizados diversos testes com o intuito de verificar o funcionamento da aplicação, apresentando um resultado satisfatório dentro dessa metodologia.
Resumo:
Esta dissertação apresenta um sistema de indução de classificadores fuzzy. Ao invés de utilizar a abordagem tradicional de sistemas fuzzy baseados em regras, foi utilizado o modelo de Árvore de Padrões Fuzzy(APF), que é um modelo hierárquico, com uma estrutura baseada em árvores que possuem como nós internos operadores lógicos fuzzy e as folhas são compostas pela associação de termos fuzzy com os atributos de entrada. O classificador foi obtido sintetizando uma árvore para cada classe, esta árvore será uma descrição lógica da classe o que permite analisar e interpretar como é feita a classificação. O método de aprendizado originalmente concebido para a APF foi substituído pela Programação Genética Cartesiana com o intuito de explorar melhor o espaço de busca. O classificador APF foi comparado com as Máquinas de Vetores de Suporte, K-Vizinhos mais próximos, florestas aleatórias e outros métodos Fuzzy-Genéticos em diversas bases de dados do UCI Machine Learning Repository e observou-se que o classificador APF apresenta resultados competitivos. Ele também foi comparado com o método de aprendizado original e obteve resultados comparáveis com árvores mais compactas e com um menor número de avaliações.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
Neste trabalho de dissertação apresentaremos uma classe de precondicionadores baseados na aproximação esparsa da inversa da matriz de coecientes, para a resolução de sistemas lineares esparsos de grandes portes através de métodos iterativos, mais especificamente métodos de Krylov. Para que um método de Krylov seja eficiente é extremamente necessário o uso de precondicionadores. No contexto atual, onde computadores de arquitetura híbrida são cada vez mais comuns temos uma demanda cada vez maior por precondicionadores paralelizáveis. Os métodos de inversa aproximada que serão descritos possuem aplicação paralela, pois so dependem de uma operação de produto matriz-vetor, que é altamente paralelizável. Além disso, alguns dos métodos também podem ser construídos em paralelo. A ideia principal é apresentar uma alternativa aos tradicionais precondicionadores que utilizam aproximações dos fatores LU, que apesar de robustos são de difícil paralelização.
Resumo:
MOTIVATION: Synthetic lethal interactions represent pairs of genes whose individual mutations are not lethal, while the double mutation of both genes does incur lethality. Several studies have shown a correlation between functional similarity of genes and their distances in networks based on synthetic lethal interactions. However, there is a lack of algorithms for predicting gene function from synthetic lethality interaction networks. RESULTS: In this article, we present a novel technique called kernelROD for gene function prediction from synthetic lethal interaction networks based on kernel machines. We apply our novel algorithm to Gene Ontology functional annotation prediction in yeast. Our experiments show that our method leads to improved gene function prediction compared with state-of-the-art competitors and that combining genetic and congruence networks leads to a further improvement in prediction accuracy.