999 resultados para Trabalhos em madeira - Ferramentas
Resumo:
Para alcançar o desenvolvimento sustentável a energia tem um papel chave, sendo responsável por boa parte da poluição em todas as atividades humanas. O uso de energias renováveis é altamente desejável quando se quer reduzir ou eliminar essa poluição sem perder a oportunidade de desenvolvimento de uma atividade produtiva qualquer. No presente trabalho delimitou-se a região alvo como sendo o extremo nordeste do estado, conhecida como “Campos de cima da Serra”, a qual possui características comuns que facilitam a aplicação do estudo. Estudou-se duas alternativas que atendem as condições de sustentabilidade, por serem renováveis, e o atendimento em pequena escala, fator predominante para que se possa viabilizar pequenos empreendimentos em locais de difícil acesso e baixa densidade demográfica, características comuns da região em estudo. A utilização de resíduos em pequenas serrarias tem características e dificuldades peculiares que foram analisadas com cuidado para oferecer a melhor alternativa do ponto de vista técnico, econômico e ambiental. O conhecimento do porte, do tipo de madeira produzida e, consequentemente, do tipo de resíduo gerado, além das necessidades energéticas das empresas, é fundamental para selecionar a melhor alternativa e determinar a tecnologia mais adequada. O presente estudo mostrou que essa tecnologia é a gaseificação do resíduo e a utilização do gás produzido num motor de combustão interna. Obteve-se um gás combustível possível de ser utilizado, desde que sua limpeza seja feita adequadamente. Nas residências da região é muito comum a utilização do fogão a lenha devido ao clima frio. Ao mesmo tempo se observa que o aquecimento de água para o banho é feito com chuveiro elétrico, equipamento barato, mas de alta demanda de potência. Essa característica prejudica o abastecimento de energia elétrica da região, já com dificuldades por ser ponta de rede. Estudou-se um equipamento auxiliar que pode ser usado em conjunto com o fogão a lenha para aquecer água nas residências, liberando energia elétrica para outras cargas mais nobres e diminuindo os níveis de queda de tensão principalmente no horário de ponta. O estudo determinou a potência útil do equipamento e identificou possíveis dificuldades que devem ser evitadas. A análise das perdas mais significativas permite que se otimize o sistema a partir dos dados levantados.
Resumo:
A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.
Resumo:
A partir da perspectiva foucaultiana do governo, utilizando-me das ferramentas analíticas de tecnologias de governo e de racionalidades políticas, analiso um conjunto de artigos publicados em revistas especializadas, em anais de encontros científicos, nacionais e internacionais, além de teses, dissertações e trabalhos apresentados em conferências, congressos e em aulas virtuais. Demonstro como a Etnomatemática, enquanto um dispositivo de governo multicultural, operacionaliza-se por meio do exercício do que denominei de tecnologias do multiculturalismo, (re)atualizando modos de governo multiculturais específicos. A análise produz dois conjuntos demonstrativos de tecnologias: Ordenando poder-saber e Esculpindo o eu. No primeiro conjunto, descrevo as tecnologias de Produção de identidades e as de Hierarquização de diferenças, mostrando como elas se constituem em instrumentos de governo, comportam todo um conjunto de níveis de aplicação e de alvos, hierarquizam modos de existência singulares e os fixam em uma identidade etnomatematizada; no segundo, analiso as tecnologias do eu Reflexivo, Sentimental, Cidadão e Livre, demonstrando como o dispositivo etnomatemático governa a subjetividade, põe a funcionar essas tecnologias, combinando-as com variadas técnicas, procedimentos e práticas específicas de governo. Ao concluir esta pesquisa, argumento sobre a produtividade analítica que a perspectiva foucaultiana oferece para, quem sabe, transgredir fronteiras que conformam os indivíduos em uma identidade (re)conhecida e (re)conhecível, criar experiências curriculares e educacionais renovadas pela possibilidade de uma constante atualização de modos de existência para além de uma subjetividade etnomatematizada.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
Este trabalho tem como objetivo desenvolver e empregar técnicas e estruturas de dados agrupadas visando paralelizar os métodos do subespaço de Krylov, fazendo-se uso de diversas ferramentas e abordagens. A partir dos resultados é feita uma análise comparativa de desemvpenho destas ferramentas e abordagens. As paralelizações aqui desenvolvidas foram projetadas para serem executadas em um arquitetura formada por um agregado de máquinas indepentes e multiprocessadas (Cluster), ou seja , são considerados o paralelismo e intra-nodos. Para auxiliar a programação paralela em clusters foram, e estão sendo, desenvolvidas diferentes ferramentas (bibliotecas) que visam a exploração dos dois níveis de paralelismo existentes neste tipo de arquitetura. Neste trabalho emprega-se diferentes bibliotecas de troca de mensagens e de criação de threads para a exploração do paralelismo inter-nodos e intra-nodos. As bibliotecas adotadas são o DECK e o MPICH e a Pthread. Um dos itens a serem analisados nestes trabalho é acomparação do desempenho obtido com essas bibliotecas.O outro item é a análise da influência no desemepnho quando quando tulizadas múltiplas threads no paralelismo em clusters multiprocessados. Os métodos paralelizados nesse trabalho são o Gradiente Conjugação (GC) e o Resíduo Mínmo Generalizado (GMRES), quepodem ser adotados, respectivamente, para solução de sistemas de equações lineares sintéticos positivos e definidos e não simétricas. Tais sistemas surgem da discretização, por exemplo, dos modelos da hidrodinâmica e do transporte de massa que estão sendo desenvolvidos no GMCPAD. A utilização desses métodos é justificada pelo fato de serem métodos iterativos, o que os torna adequados à solução de sistemas de equações esparsas e de grande porte. Na solução desses sistemas através desses métodos iterativos paralelizados faz-se necessário o particionamento do domínio do problema, o qual deve ser feito visando um bom balanceamento de carga e minimização das fronteiras entre os sub-domínios. A estrutura de dados desenvolvida para os métodos paralelizados nesse trabalho permite que eles sejam adotados para solução de sistemas de equações gerados a partir de qualquer tipo de particionamento, pois o formato de armazenamento de dados adotado supre qualquer tipo de dependência de dados. Além disso, nesse trabalho são adotadas duas estratégias de ordenação para as comunicações, estratégias essas que podem ser importantes quando se considera a portabilidade das paralelizações para máquinas interligadas por redes de interconexão com buffer de tamanho insuficiente para evitar a ocorrência de dealock. Os resultados obtidos nessa dissertação contribuem nos trabalhos do GMCPAD, pois as paralelizações são adotadas em aplicações que estão sendo desenvolvidas no grupo.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
Este trabalho tem como objetivo estudar a influência do tratamento superficial, através da técnica de nitretação a plasma, no processo de fresamento com fresas de aço rápido AISI M2. Foram investigados os efeitos deste tratamento superficial no processo de corte, variando-se a forma de refrigeração/lubrificação das fresas com fluído de corte convencional (emulsão) em abundância, com minimização e sem fluído (lubrificação a seco). Na nitretação, a composição da mistura de gases utilizada nos experimentos foi de 5% N2 e 95% H2 em volume, a uma pressão de tratamento de 5 mbar (3,8 Torr). A temperatura utilizada foi de 440oC, durante um tempo de tratamento de 30 minutos, resultando em uma camada nitretada com uma zona de difusão com aproximadamente 8µm de profundidade. As ferramentas empregadas no processo de fresamento foram investigadas através de medição de forças de usinagem, medições de desgaste na superfície de incidência (flanco) e na superfície de saída (face), sendo as camadas nitretadas caracterizadas por metalografia óptica e microdureza. Foi observado um desempenho superior das fresas nitretadas apenas para as condições de corte a seco.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
Esta dissertação aborda a implantação de sistemática para Troca Rápida de Ferramentas (TRF), através de proposta de implantação elaborada pela revisão da literatura e comprovação prática da sistemática realizada através de estudo de caso aplicado na indústria moveleira. A Troca Rápida de Ferramentas fornece condições para a redução do tempo de preparação dos equipamentos, possibilitando uma estratégia de produção de lotes de tamanho reduzido. A TRF está associada a uma série de ferramentas de melhoria, com ênfase em técnicas de formação de equipes de trabalho e utilização da capacidade criativa destas equipes na melhoria dos métodos existentes. A presente dissertação apresenta revisão da literatura abordando dois assuntos principais: (i) elaboração de uma sistemática de TRF, e (ii) implantação da sistemática em processos da indústria moveleira. A implantação da sistemática ocorre através das seguintes etapas: (i) definição do projeto, (ii) planejamento da implantação, (iii) treinamento em troca rápida de ferramentas, (iv) implantação efetiva, e (v) acompanhamento e consolidação. Por fim, através dos dados coletados ao longo da implantação, são apresentados resultados comparativos entre situações antes e depois da implantação da sistemática proposta na dissertação. Também são apresentadas conclusões finais e recomendações para trabalhos futuros.
Resumo:
O objetivo deste trabalho é desenvolver um mecanismo para suporte à percepção de eventos no passado. Percepção pode ser conceituada como o conhecimento sobre as atividades do grupo, passadas, presentes e futuras, sobre o próprio grupo e seu status geral. Sem este conhecimento, o trabalho cooperativo coordenado e estruturado torna-se quase impossível. O suporte à percepção pode ser dividido em seis questões (o que, quando, como, onde, quem e quanto), analisadas sob ponto de vista de sistemas assíncronos e síncronos. A questão “quando” analisa o momento em que ocorre uma atividade, o que gera um evento, podendo ser no “passado”, “passado contínuo”, “presente” ou “futuro”. Uma atividade no “passado” é aquela que foi concluída em um momento passado e cujo registro interessa às outras atividades. Apesar de sua importância, o suporte à percepção de eventos no passado é ainda muito limitado nas ferramentas de groupware hoje disponíveis. Como conseqüência, situações como a ausência de um membro do grupo por um certo período de tempo não são tratadas. Como estas situações de ausência são bastante comuns, durante o trabalho em grupo, o seu tratamento é fundamental em um groupware. Desta forma, a ausência de membros do grupo exige a contextualização não apenas daqueles que continuam no trabalho, mas, principalmente, daqueles que retornam ao ambiente cooperativo. Neste trabalho, é apresentado um mecanismo flexível para o suporte à percepção de eventos no passado destinado a cobrir a referida contextualização. Este mecanismo foi construído na forma de um framework, projetado para ser flexível a ponto de poder ser incluído em qualquer ferramenta de groupware, desde que seu autor o queira. Este framework, chamado de BW (Big Watcher), foi organizado em quatro pacotes: três independentes, que trocam informações, descritas no quarto pacote, através somente de classes de fachada. Estas informações são essencialmente eventos, os quais representam as atividades realizadas e já concluídas por algum membro desempenhando um papel dentro do grupo. Estas atividades são registradas pelo groupware junto ao framework, de modo que este groupware possa, através do framework, contextualizar seus membros. Além disso, o groupware também pode especializar várias classes dentro do framework BW, como a descrição dos papéis e a própria descrição dos eventos. Assim, este framework pode ser integrado a qualquer ferramenta de groupware em ambiente assíncrono que necessite de um mecanismo para o suporte à percepção de eventos no passado, para evitar que situações de ausência prejudiquem o andamento dos trabalhos. Finalmente, foi implementado e testado o framwork BW sobre o groupware CUTE/COPSE para validar as idéias desta dissertação.
Resumo:
O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
Esta dissertação apresenta um estudo da satisfação com os critérios conforto, segurança, adaptabilidade, praticidade, adequação e aparência e da percepção de desconforto/dor de usuários de cadeiras de escritório. A partir dos resultados de quatro estudos de caso, dos quais participaram trinta e um voluntários que testaram vinte e nove cadeiras durante um dia de trabalho, buscou-se confirmar a hipótese que a satisfação com as cadeiras depende das características do trabalho realizado. Para este fim, determinaram-se os experimentos para trabalho estático, médio e dinâmico. A análise dos resultados, com base em suporte estatístico, mostrou que cadeiras com assento e encosto independentes, apoio para braços em forma “T”, com altura regulável e menor distância entre os braços são melhores para trabalho estático e que cadeiras em concha única, com apoio para braços em forma diferente de “T”, com altura fixa e maior distância entre os braços são melhores para trabalho dinâmico.
Resumo:
O presente estudo fornece aos usuários de puncionadeiras, uma metodologia para quantificar o desgaste crítico das ferramentas e proporcionar a determinação do adequado procedimento de afiação, aplicado às particularidades e necessidades de cada condição de uso deste equipamento. A quantificação dos parâmetros de controle da afiação das ferramentas está vinculada ao controle do incremento do arredondamento da aresta de corte, em relação à quantidade de puncionamentos executados. É apresentada uma coletânea de informações publicadas acerca do assunto, com recomendações e resultados de estudos específicos que orientam os usuários destas ferramentas em seus planos particulares de manutenção. Um experimento prático, que pode ser repetido e atualizado facilmente dentro da indústria metalúrgica, auxilia na quantificação e estabelecimento do correto momento da afiação, considerando as condições específicas desta. A metodologia apresentada também pode ser utilizada na avaliação do processo usado, através da análise de ferramentas de fornecedores diferentes ou do uso de materiais e revestimentos diferentes aplicados às ferramentas. A análise econômica, considerando os custos envolvidos no processo de afiação e os custos operacionais envoltos com ferramenta e a troca desta na máquina, é confrontada com os resultados experimentais e com as recomendações publicadas, fornecendo um resultado seguro e confiável para a determinação correta da freqüência de manutenção das ferramentas.