213 resultados para Maquinas-ferramenta - Controle numerico
Resumo:
Empresas mantêm estoques como forma de antecipar a necessidade do cliente, usufruindo, assim, de vantagem competitiva. No entanto, há custos associados a esses estoques, devendo haver um balanceamento em relação ao diferencial que a sua existência pode trazer. O aumento dos níveis de competitividade no mercado obriga as companhias a diminuírem seus custos, reduzindo, pois, parte de seu estoque, podendo provocar perdas de vendas por falta de mercadoria. O desafio é prever com a maior precisão possível qual a quantidade requerida de cada produto e o momento certo em que o mesmo será necessário. É nesse sentido que a Análise e Previsão de Demanda vem sendo utilizada como ferramenta para diminuir a distância entre a necessidade e a disponibilidade de estoque. Esta dissertação descreve as vantagens competitivas da manutenção do estoque e os custos a ele associados, bem como os tipos de demanda, além dos métodos de Análise e Previsão de Demanda como forma de minimizar custos, melhorando o nível e a disponibilidade de estoque. Para tanto, foi desenvolvido um estudo de caso em uma empresa do ramo comercial com o propósito de validar as técnicas descritas para futura utilização em todas as linhas e marcas de produtos comercializados pela companhia estudada.
Resumo:
A evolução da Informática na Educação exige ambientes de ensino capazes de se adaptarem ao contexto de acordo com as características individuais do aluno, permitindo interatividade, e que gerem um diagnóstico do comportamento desse aluno. Com base nestes argumentos, o objetivo deste trabalho é propor um sistema de diagnóstico independente do domínio, capaz de analisar o comportamento do aluno em cursos de Ensino a Distância. O professor organiza o material em estruturas de tarefas TÆMS (uma linguagem independente do domínio para descrição de planos de resolução de tarefas), gerando uma biblioteca de planos que deverão ser executados pelo aluno. As informações referentes à navegação do aluno pelo material são gravadas em um log. O processo de diagnóstico ocorre através do confronto entre as informações do log e os planos gerados pelo professor (esta comparação é baseada em um modelo causal geral que pode ser utilizado para diagnosticar diferenças entre quaisquer estruturas TÆMS). Se forem detectadas divergências no processo de diagnóstico, o sistema gerará um arquivo texto contendo os sintomas detectados e as possíveis causas para que estes tenham ocorrido.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.
Resumo:
A escolha do sistema de terminação de suínos e controle de dejetos, que melhor contemple os valores sociais atuais, implica considerar, simultaneamente, pelo menos dois aspectos disciplinarmente distintos - o econômico e o ambiental - o que eleva a complexidade da escolha. Conjuntos fuzzy, por traduzir ordenadamente a percepção expressa pela linguagem, o entendimento relevante porém impreciso da realidade, é uma ferramenta conveniente para o estudo desta situação, a respeito da qual diversos especialistas possuem apreciável conhecimento parcial. Analisa-se o custo de produção de terminadores de suínos da encosta do Vale do Caí, utilizando-se conjuntos fuzzy para identificar causas necessárias e/ou suficientes para o alcance de um baixo custo de produção. Posteriormente, é apresentado um modelo fuzzy para a combinação dos custos de produção com as percepções de suinocultores e de agrônomos quanto ao impacto ambiental da suinocultura.
Resumo:
Este trabalho apresenta o LIT, uma ferramenta de auxílio ao projeto de circuitos integrados analógicos que utiliza a técnica da associação trapezoidal de transistores (TAT) sobre uma matriz digital pré-difundida. A principal característica é a conversão de cada transistor simples de um circuito analógico em uma associação TAT equivalente, seguido da síntese automática do leiaute da associação séria-paralela de transistores. A ferramenta é baseada na matriz SOT (sea-of-transistors), cuja arquitetura é voltada para o projeto de circuitos digitais. A matriz é formada somente por transistores unitários de canal curto de dimensões fixas. Através da técnica TAT, entretanto, é possível criar associações série-paralelas cujo comportamento DC aproxima-se dos transistores de dimensões diferentes dos unitários. O LIT é capaz de gerar automaticamente o leiaute da matriz SOT e dos TATs, além de células analógicas básicas, como par diferencial e espelho de corrente, respeitando as regras de casamento de transistores. O cálculo dos TATs equivalentes também é realizado pela ferramenta. Ela permite a interação com o usuário no momento da escolha da melhor associação. Uma lista de possíveis associações é fornecida, cabendo ao projetista escolher a melhor. Além disso, foi incluído na ferramenta um ambiente gráfico para posicionamento das células sobre a matriz e um roteador global automático. Com isso, é possível realizar todo o fluxo de projeto de um circuito analógico com TATs dentro do mesmo ambiente, sem a necessidade de migração para outras ferramentas. Foi realizado também um estudo sobre o cálculo do TAT equivalente, sendo que dois métodos foram implementados: aproximação por resistores lineares (válida para transistores unitários de canal longo) e aproximação pelo modelo analítico da corrente de dreno através do modelo BSIM3. Três diferentes critérios para a escolha da melhor associação foram abordados e discutidos: menor diferença de corrente entre o TAT e o transistor simples, menor número de transistores unitários e menor condutância de saída. Como circuito de teste, foi realizado o projeto com TATs de um amplificador operacional de dois estágios (amplificador Miller) e a sua comparação com o mesmo projeto utilizando transistores full-custom. Os resultados demonstram que se pode obter bons resultados usando esta técnica, principalmente em termos de desempenho em freqüência. A contribuição da ferramenta LIT ao projeto de circuitos analógicos reside na redução do tempo de projeto, sendo que as tarefas mais suscetíveis a erro são automatizadas, como a geração do leiaute da matriz e das células e o roteamento global. O ambiente de projeto, totalmente gráfico, permite que mesmo projetistas analógicos menos experientes realizem projetos com rapidez e qualidade. Além disso, a ferramenta também pode ser usada para fins educacionais, já que as facilidades proporcionadas ajudam na compreensão da metodologia de projeto.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Este trabalho consistiu no pós-tratamento de efluente de reator anaeróbio, em um sistema de reator seqüencial em batelada (RSB), com vistas à remoção biológica de nitrogênio e fósforo. Primeiramente, em escala de laboratório, verificou-se a eficiência de três RSBs, com ciclos operacionais diferenciados, tratando o efluente produzido por um reator seqüencial em batelada anaeróbio (RSBAn), alimentado por esgoto sintético, caracteristicamente doméstico. Neste experimento, também acoplou-se um sistema de aquisição de dados aos RSBs, para monitorar continuamente os parâmetros pH, redox e OD, com o objetivo de obter pontos inferenciais de controle dos processos de nitrificação, desnitrificação e remoção biológica de fósforo. Subseqüente a este experimento, desenvolveu-se um sistema de RSB em escala piloto, tratando o efluente anaeróbio real de um UASB (Upflow Anaerobic Sludge Blanket), no intuito de analisar o efeito da mudança de escala e do tipo de esgoto, que passou de sintético a real, na performance do RSB. No experimento em escala de laboratório, os resultados obtidos demonstraram boas eficiências de remoção de DQO e SS, e uma ótima eficiência no processo de nitrificação. As eficiências médias de remoção de DQO, SS e nitrificação, foram respectivamente de 93,3%, 90,7% e 98,9%. O processo de desnitrificação não desenvolveu-se satisfatoriamente devido às baixas concentrações de matéria orgânica do efluente anaeróbio. O processo de remoção biológica de fósforo, além das baixas DQO afluentes, foi prejudicado pelas idades de lodo extremamente longas estabelecidas nesta fase experimental, em função da aplicação da estratégia de controle de processo baseada na concentração de SSV no licor. Objetivando-se aumentar a concentração de matéria orgânica imediatamente disponível no afluente, com o conseqüente acréscimo de eficiência nos processos de desnitrificação e remoção biológica de fósforo, introduziu-se um pré-fermentador, para gerar metade do efluente anaeróbio a ser tratado nos RSBs. O controle do processo passou a ser efetuado através da aplicação de uma idade de lodo pré-estabelecida de 20 dias. Observou-se um aumento bastante significativo do processo de desnitrificação, atingindo uma eficiência da ordem de 70,4%. No entanto, as maiores concentrações de matéria orgânica solúvel, com a introdução do pré-fermentador, não foram suficientes para estimular o desenvolvimento das bactérias removedoras de fósforo. Um aumento de DQO do esgoto sintético foi necessário para permitir a simultaneidade dos processos de desnitrificação e remoção de fósforo. Porém, apesar de apresentar ciclos operacionais com eficiências de 100% de remoção de fósforo, este processo não mostrou-se confiável, alternando entre fases de boas, médias e más eficiências. Provavelmente as idades de lodo, ainda muito altas para promover a remoção de fósforo do sistema, justificam a permanência bastante irregular na eficiência deste processo. Neste período, a concentração média de DQO necessária para atingir-se uma eficiência satisfatória nos processos conjuntos de nitrificação e desnitrificação, foi de 644,6 mg/L. As seguintes eficiências foram observadas: 95,8% na remoção de DQO, 98,7% na nitrificação, 76,8% na desnitrificação e 74,5% na remoção de nitrogênio. O acompanhamento "on line" de pH, redox e OD mostrou-se como uma eficiente ferramenta inferencial no controle de processos biológicos, principalmente daqueles referentes à remoção de nitrogênio. Dentre os três parâmetros monitorados, o pH apresentouse como o mais representativo. No experimento em escala piloto, o processo de nitrificação não desenvolveu-se possivelmente devido ao efeito conjunto de baixos tempos de detenção nas etapas aeróbias dos ciclos operacionais dos RSBs, com a ação tóxica de sulfetos produzidos no tratamento anaeróbio. O processo de remoção biológica de fósforo, similarmente ao experimento em escala de bancada, não mostrou-se confiável, apresentando períodos alternados de eficiência. Por fim, com vistas a verificar o desenvolvimento de processo inibitório por efluentes de tratamento anaeróbio em sistemas aeróbios, realizou-se uma série de testes de inibição com o efluente anaeróbio e também especificamente com sulfeto. Os testes respirométricos (DBO última e em batelada), foram de essencial importância para analisar a tratabilidade biológica de esgoto contendo composto tóxico. Pôde-se comprovar que o sulfeto, presente no efluente anaeróbio real, ou o efeito de sua combinação com outras substâncias contidas no lodo ativado, alterou a cinética dos processos biológicos desenvolvidos no sistema de tratamento do tipo lodo ativado.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
Resumo não disponível.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Esta tese teve como objetivos investigar: (1) as mudanças relacionadas à idade no controle de força e torque isométrico em crianças de diferentes idades em três tarefas manipulativas distintas, e (2) as diferenças no controle de força e torque isométrico, assim como nas respostas neuromusculares, entre crianças com e sem DCD de idade relacionadas em três tarefas manipulativas distintas. Neste sentido, foi realizado um ensaio teórico sobre a criança com Desordem Coordenativa Desenvolvimental (DCD), além de dois estudos experimentais que têm em comum a análise da estrutura da resposta do sistema motor em relação à performance das crianças com e sem DCD, em três tarefas manipulativas distintas de controle de força e torque isométrico, contínuo e constante. No primeiro estudo, foram investigadas as mudanças desenvolvimentais no controle motor usando um delineamento transversal de pesquisa com crianças de 7, 9 e 11 anos de idade, as quais foram incentivadas a manter o controle de força e torque durante vinte segundos nas tarefas de pressão digital, preensão digital em pinça e torque em preensão digital. Os resultados demonstraram que a performance melhorou com o avanço da idade, devido à capacidade do sistema sensório-motor apresentar uma resposta mais irregular e com um perfil de freqüências mais distribuídas. No segundo estudo, o controle de força e torque entre crianças com e sem DCD, com nove anos de idade, foram investigadas. Os participantes realizaram as mesmas tarefas do estudo desenvolvimental e, além disso, respostas neuromusculares foram mapeadas Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados não revelaram uma variabilidade maior e irregularidade menor no grupo com DCD nas tarefas de pressão digital e preensão digital em pinça. No entanto, na tarefa de controle de torque em preensão digital, foi identificada uma maior variabilidade e menor irregularidade na resposta motora do grupo com DCD. Os resultados da análise das respostas neuromusculares sugerem o uso de estratégias distintas entre os grupos, todavia, tais achados não foram conclusivos.
Resumo:
A competitividade do mercado tem levado empresas, pressionadas por concorrentes e com recursos limitados, a tomarem ações imediatas para garantir sua sobrevivência. Os escassos recursos materiais e humanos disponíveis necessitam ser investidos na operacionalização de estratégias bem planejadas que possam garantir a competitividade no curto, médio e longo prazos. Um erro no posicionamento estratégico pode comprometer de forma bastante significativa uma organização. Este trabalho apresenta o estudo de caso efetuado em uma empresa de componentes eletrônicos sobre a proposta de utilização do Planejamento Estratégico na preparação de um modelo geral de mudança de estrutura para Implantação de um Sistema da Qualidade baseado na Norma ISO Série 9000. Este estudo serve como alerta aos administradores quanto aos riscos e perdas a que podem estar se expondo quando alocam tempo, capital e pessoas, para somente obter o certificado ISO, sem enfatizar o aprendizado decorrente desta certificação. A implantação de um sistema da qualidade passa a ser visto como uma ferramenta e não só com um conjunto de normas que permitem obter um certificado. O estudo possibilitou a constatação, na prática, das várias fases que conduzem uma empresa a introduzir em suas atividades o Sistema da Qualidade.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.