940 resultados para fabricación automatizada
Resumo:
Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.
Resumo:
O presente trabalho pretende demonstrar as transformações nas qualificações dos operadores de máquina com a introdução de novos equipamentos no processo produtivo em três empresas do setor metal-mecânico do estado do Rio Grande do Sul. Com o auxílio de uma metodologia de natureza qualitativa buscou-se, através de entrevistas semi-estruturadas, captar a percepção dos operadores de máquinas, supervisores e gerentes sobre as modificações ocorridas na qualificação dos operadores de máquina automatizada na produção. A partir da revisão da literatura buscou-se construir o roteiro das entrevistas, diferenciadas para cada cargo, buscando captar as percepções dos diferentes atores sobre tecnologia, trabalho e qualificação. Como resultado estabeleceu-se a qualificação necessária e desejada de um trabalhador que opera uma máquina automatizada.
Resumo:
Este trabalho insere em seu conteúdo dois propósitos: o primeiro é o de apresentar uma microusina experimental, uma planta piloto de uma microcentral hidrelétrica automatizada, que foi montada para ser utilizada como laboratório de pesquisas do desempenho de máquinas assíncronas de até 5CV operando como geradores de energia elétrica. Para isso, apresentamos todos os equipamentos com as suas respectivas especificações, a descrição do funcionamento e documentos gerais do projeto. O segundo é fazer uma revisão do uso da máquina assíncrona, funcionando como gerador de energia elétrica ligada à rede de distribuição local. Estudamos e apresentamos algumas conclusões sobre o comportamento deste tipo de gerador, no contexto de uma microcentral hidrelétrica automatizada, em situações operacionais onde se pode contemplar máxima potência ou máximo fator de potência ou, então, máximo rendimento. Realizamos análises teóricas considerando o circuito equivalente do gerador instalado na microcentral; foram geradas curvas das grandezas envolvidas no processo de geração de energia elétrica, e estes resultados foram comparados com as medidas fornecidas pelas leituras dos instrumentos, enquanto a máquina no ambiente da microusina experimental, era submetida à situação de carga zero até a máxima. Com os resultados colhidos procuramos estabelecer uma relação entre a potência mecânica nominal de motores assíncronos com a potência ativa nominal deste tipo de máquina operando como gerador.
Resumo:
Os Sistemas de Recuperação de Informações (SRI) computadorizados são sistemas capazes de armazenar, recuperar e manter informações, visando minimizar o esforço humano na realização de tais atividades. A classificação de textos é um subdomínio dos sistemas de recuperação de informações que tem como objetivo classificar um texto em uma ou mais categorias existentes. Pode ser utilizada na classificação de mensagens, notícias e documentos, na filtragem de informações, na sumarização de textos, além de auxiliar profissionais na execução destas tarefas. A filtragem automatizada das mensagens de correio eletrônico é uma forma de organizar o trabalho do usuário. O volume de informações divulgadas através deste serviço torna fundamental um sistema de filtros para melhor uso do serviço. Sieve é uma proposta para padrão de linguagens de filtro de mensagens. O Direto é um software de correio, agenda e catálogo corporativos que visa atender todo Governo do Estado do Rio Grande do Sul. Foi desenvolvido na PROCERGS, Companhia de Processamento de Dados do Estado do Rio Grande do Sul, utilizando a linguagem Java e utiliza os serviços de IMAP, SMTP, LDAP e SGBD. Está disponível com licença de software livre. O objetivo deste trabalho é aplicar técnicas de filtragem no Direto. O trabalho apresenta uma solução para filtrar as mensagens de correio do Direto utilizando Sieve. Também é especificado um serviço de canais de informação que visa divulgar informações de forma eficiente no Estado. Este serviço possui vários canais, cada um destinado a divulgar informações de determinado domínio. O usuário assina os canais que desejar e pode criar filtros para melhor refinamento das informações que deseja receber. Os filtros utilizam técnicas de classificação de textos no processo de filtragem.
Resumo:
Mesmo depois de todas as novidades tecnológicas nos últimos anos, ainda existem muitos sistemas desenvolvidos com tecnologias antigas, muitas vezes ultrapassadas e obsoletas denominados sistemas legados. O problema do bug do ano 2000 funcionou como um excelente despertador para o fato de que não podemos nos esquecer do grande número de sistemas ainda em produção, e que são importantes para a empresa. Não se pode simplesmente descartar estes sistemas e é muito difícil migrar sistemas legados rapidamente para novas plataformas. Mais ainda, as regras de negócio que regem qualquer empresa são muito complexas para poderem ser modeladas e remodeladas em poucos meses e em seguida automatizadas porque a maior dificuldade em desenvolver sistemas não é escrever código nesta ou naquela linguagem, mas entender o que o sistema deve fazer. Este trabalho enfoca uma solução possível para o problema referente à migração de sistemas legados: a tradução destes sistemas legados da forma mais automatizada possível para que possam se beneficiar das novas tecnologias existentes deve ser o resultado final produzido. Assim, o objetivo desta dissertação é a investigação do problema de migração de sistemas legados e suas soluções assim como o desenvolvimento de uma ferramenta que traduz um sistema legado escrito na linguagem COBOL para PROGRESS, visando o aproveitamento do código e principalmente o aproveitamento de soluções de análise e projeto, que exigiram bastante esforço para serem elaboradas e poderiam ser reutilizadas em novos desenvolvimentos.
Resumo:
Sistemas de informação incorporam processos de negócios particulares de cada organização. A medida em que se observa uma crescente pressão de mercado para que empresas troquem informações de forma automatizada e segura para obtenção de melhores resultados, faz-se necessário repensar a forma como são concebidos os sistemas de informação, desde a modelagem da empresa propriamente dita até a modelagem dos processos de negócio e sua interação com os demais colaboradores. Modelar os processos de negócio de uma empresa em um contexto global significa não apenas estabelecer regras de comportamento, mas também expressar a forma como os processos poderão ser acionados e interagir com sistemas de informação diferentes. Existem várias tecnologias empregadas para a integração de sistemas de informação. Entre tantas tecnologias, uma delas vêm recebendo especial atenção: a tecnologia Web services. A suposta interoperabilidade dos Web services permite a comunicação de aplicações desenvolvidas em diferentes plataformas de hardware e diferentes linguagens de programação através da Internet ou de uma rede local. No entanto, algumas particularidades devem ser observadas para que a implementação de Web services seja eficiente. Disponibilizar processos de negócio de uma empresa através da Internet pode ser uma ótima opção para o incremento de suas atividades, mas requer cuidados especiais. Este trabalho apresenta uma revisão bibliográfica sobre a modelagem de empresas, modelagem de processos de negócio e a integração de sistemas de informação através do uso de Web services. Através de um estudo de caso, são apresentados os principais conceitos e as etapas necessárias para a implementação de Web services em um sistema Web. Como contribuição deste trabalho, é proposta uma alternativa de modelagem de sistemas que permite um melhor controle sobre o tratamento de exceções em Web services. O trabalho desenvolvido compreendeu a especificação, desenvolvimento e aplicação de um ambiente para suportar esta classe de aplicação. No texto é descrito o funcionamento da biblioteca NuSOAP, apresentando o código-fonte completo da aplicação desenvolvida, acessando Web services através de chamadas em alto nível (WSDL). Com o presente trabalho, tem-se uma proposta, já avaliada e validada, para funcionar como referencial conceitual e prático para o desenvolvimento de aplicações usando a tecnologia de Web services.
Resumo:
A necessidade de desenvolver o processo de manufatura para aplicação de revestimento superficial em peças fundidas de máquinas agrícolas viabilizou a realização deste trabalho junto à indústria. A análise das principais variáveis do processo produtivo foi considerada levando-se em conta recursos necessários, tais como, ferramental e equipamentos, material de adição (arame de soldagem), inspeção das características macroscópicas e, principalmente, as especificações de engenharia do item. A revisão bibliográfica ressaltou os problemas normalmente existentes quando da soldagem de peças fabricadas de ferro fundido, assim como esclareceu os principais cuidados necessários para obtenção de revestimentos superficiais com qualidade. Para definição e aprovação do processo de soldagem a ser usado, foram realizados testes simulando uma soldagem automatizada, controlando os principais parâmetros de soldagem. A análise da qualidade do cordão de solda, sob o ponto de vista de aparência geral, geometria, presença de descontinuidades (porosidade e inclusões de escória), foi feita através de inspeção visual. Devido a necessidade de estruturar o processo de solda afim de possibilitar fornecimento continuada de peças para a linha de montagem, foi analisado e proposto um conceito de gabarito de soldagem. Os ensaios de micrografia mostraram a penetração e aspectos internos do depósito de solda. O exame micrográfico mostrou também que a trinca transversal que ocorre no material não avança para dentro do metal base. Os resultados dos testes e ensaios proporcionaram os subsídios para permitir a aprovação do método proposto a fim de dar continuidade na estruturação do processo de soldagem para revestimento superficial das peças fundidas.
Resumo:
Métodos ‘in vivo’ são ideais para avaliar o valor nutritivo dos alimentos, porém são caros, demorados e avaliam poucos alimentos por vez. Portanto, métodos ‘in vitro’ e ‘in situ’ têm sido freqüentemente utilizados. Entre estes, tem se destacado a técnica de produção de gases ‘in vitro’, a qual vem sendo amplamente utilizada, particularmente pelos países do Hemisfério Norte. A sua modificação, tornando-a mais prática e semi-automatizada, tem impulsionado a sua utilização no Brasil. No entanto, a validação do uso desta técnica nos sistemas tropicais de produção animal necessita ainda ser estabelecido. O objetivo deste trabalho foi testar a técnica de produção cumulativa de gases ‘in vitro’, na avaliação da qualidade fermentativa e nutritiva de silagens de milho, e comparar seus resultados com os métodos tradicionais de digestibilidade ‘in vitro’ e de degradabilidade ‘in situ’. Para tanto foram utilizadas como ferramenta de pesquisa, silagens de milho colhidas em diferentes estágios de desenvolvimento e submetidas à diferentes níveis de compactação à ensilagem. Utilizado complementarmente à análise químico-bromatológica, o método de produção de gases ‘in vitro’ demonstrou ser uma boa ferramenta para avaliação da qualidade dos alimentos para ruminantes. Quando comparado ao método in vitro tradicional, possui as vantagens do método ‘in situ’ por estimar também a cinética da degradação ruminal do alimento. Contudo, é mais prático e, por possibilitar conhecer as taxas de degradação de diferentes frações dos alimentos, foi também mais sensível. Além disso, embora necessitando ainda adequada validação in vivo, permitiu estimar a eficiência da síntese microbiana ruminal.
Resumo:
Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
O item não apresenta o texto completo, pois está passando por revisão editorial
Resumo:
PEREIRA, J. P. ; CASTRO, B. P. S. ; VALENTIM, R. A. M. . Kit Educacional para Controle e Supervisão Aplicado a Nível. Holos, Natal, v. 2, p. 68-72, 2009
Resumo:
In this paper artificial neural network (ANN) based on supervised and unsupervised algorithms were investigated for use in the study of rheological parameters of solid pharmaceutical excipients, in order to develop computational tools for manufacturing solid dosage forms. Among four supervised neural networks investigated, the best learning performance was achieved by a feedfoward multilayer perceptron whose architectures was composed by eight neurons in the input layer, sixteen neurons in the hidden layer and one neuron in the output layer. Learning and predictive performance relative to repose angle was poor while to Carr index and Hausner ratio (CI and HR, respectively) showed very good fitting capacity and learning, therefore HR and CI were considered suitable descriptors for the next stage of development of supervised ANNs. Clustering capacity was evaluated for five unsupervised strategies. Network based on purely unsupervised competitive strategies, classic "Winner-Take-All", "Frequency-Sensitive Competitive Learning" and "Rival-Penalize Competitive Learning" (WTA, FSCL and RPCL, respectively) were able to perform clustering from database, however this classification was very poor, showing severe classification errors by grouping data with conflicting properties into the same cluster or even the same neuron. On the other hand it could not be established what was the criteria adopted by the neural network for those clustering. Self-Organizing Maps (SOM) and Neural Gas (NG) networks showed better clustering capacity. Both have recognized the two major groupings of data corresponding to lactose (LAC) and cellulose (CEL). However, SOM showed some errors in classify data from minority excipients, magnesium stearate (EMG) , talc (TLC) and attapulgite (ATP). NG network in turn performed a very consistent classification of data and solve the misclassification of SOM, being the most appropriate network for classifying data of the study. The use of NG network in pharmaceutical technology was still unpublished. NG therefore has great potential for use in the development of software for use in automated classification systems of pharmaceutical powders and as a new tool for mining and clustering data in drug development
Resumo:
Com este trabalho, o objetivo foi estimar a radiação fotossinteticamente ativa (PAR) e correlacioná-la com a massa de matéria seca (MMSPA) da grama-esmeralda (Zoysia japonica Steud.), em superfícies com diferentes exposições e declividades. A pesquisa foi desenvolvida na Bacia Hidrográfica Experimental do Departamento de Engenharia Rural, FCAV/UNESP, Brasil, onde foram utilizadas as superfícies (H; 10 N; 30 N; 50 N; 10 S; 30 S; 50 S; 10 L; 30 L; 50 L; 10 O; 30 O e 50 O). Para a obtenção da radiação solar global, foi instalada uma estação meteorológica automatizada, onde a PAR (variável dependente) foi obtida por meio da equação y = a + bx, e a radiação global foi a independente. Para comparação de médias da MMSPA, utilizou-se o teste de Tukey, a 5% de probabilidade, e para verificar a relação existente PAR/MMSPA, o coeficiente de correlação linear simples. O resultado mostrou que o acúmulo desses efeitos na PAR aumenta com a exposição norte e decresce com a sul, sendo a exposição 50 N a mais indicada para taludes, não havendo correlação entre a PAR e a MMSPA para as superfícies avaliadas para o período estudado.