67 resultados para Máquina perfuradora
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.
Resumo:
This work proposes an animated pedagogical agent that has the role of providing emotional support to the student: motivating and encouraging him, making him believe in his self-ability, and promoting a positive mood in him, which fosters learning. This careful support of the agent, its affective tactics, is expressed through emotional behaviour and encouragement messages of the lifelike character. Due to human social tendency of anthropomorphising software, we believe that a software agent can accomplish this affective role. In order to choose the adequate affective tactics, the agent should also know the student’s emotions. The proposed agent recognises the student’s emotions: joy/distress, satisfaction/disappointment, anger/gratitude, and shame, from the student’s observable behaviour, i. e. his actions in the interface of the educational system. The inference of emotions is psychologically grounded on the cognitive theory of emotions. More specifically, we use the OCC model which is based on the cognitive approach of emotion and can be computationally implemented. Due to the dynamic nature of the student’s affective information, we adopted a BDI approach to implement the affective user model and the affective diagnosis. Besides, in our work we profit from the reasoning capacity of the BDI approach in order for the agent to deduce the student’s appraisal, which allows it to infer the student’s emotions. As a case study, the proposed agent is implemented as the Mediating Agent of MACES: an educational collaborative environment modelled as a multi-agent system and pedagogically based on the sociocultural theory of Vygotsky.
Resumo:
A simulação, como ferramenta de suporte à tomada de decisão, tem sido utilizada nas mais variadas áreas do conhecimento e especialmente no projeto e dimensionamento de plantas de produção. Em geral, os simuladores para sistemas de produção consideram variáveis relativas à quantidade, tipo e disposição física de máquinas, quantidades dos estoques intermediários, e aos tempos de produção sem, no entanto, considerar os tempos reais do trabalho do ser humano envolvido no processo, apesar de a mão de obra humana ser largamente empregada nestes sistemas, afetando diretamente a sua produtividade. Uma das possíveis razões disto é a complexidade dos fatores que influenciam na produtividade do ser humano, que varia em função de fatores ambientais, fisiológicos, psicológicos ou sociais. Normalmente, os sistemas de simulação da produção representam o trabalhador humano da mesma forma como representam uma máquina, uma ferramenta ou um equipamento, cuja previsibilidade é bem maior. Esta dissertação avalia a questão humana em um simulador bastante utilizado comercialmente, e evidenciou que os fatores ergonômicos são capazes de alterar significativamente os resultados de uma simulação, justificando o desenvolvimento de rotinas computacionais capazes de representar o elemento humano e suas interações com o sistema, de forma mais fidedigna.
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
Esse trabalho de dissertação está incluído no contexto das pesquisas realizadas no Grupo de Processamento Paralelo e Distribuído da UFRGS. Ele aborda as áreas da computação de alto desempenho, interfaces simples de programação e de sistemas de interconexão de redes velozes. A máquina paralela formada por agregados (clusters) tem se destacado por apresentar os recursos computacionais necessários às aplicações intensivas que necessitam de alto desempenho. Referente a interfaces de programação, Java tem se mostrado uma boa opção para a escrita de aplicações paralelas por oferecer os sistemas de RMI e de soquetes que realizam comunicação entre dois computadores, além de todas as facilidades da orientação a objetos. Na área a respeito de interconexão de rede velozes está emergindo como uma tentativa de padronização a nova tecnologia Infiniband. Ela proporciona uma baixa latência de comunicação e uma alta vazão de dados, além de uma série de vantagens implementadas diretamente no hardware. É neste contexto que se desenvolve o presente trabalho de dissertação de mestrado. O seu tema principal é o sistema Aldeia que reimplementa a interface bastante conhecida de soquetes Java para realizar comunicação assíncrona em agregados formados por redes de sistema. Em especial, o seu foco é redes configuradas com equipamentos Infiniband. O Aldeia objetiva assim preencher a lacuna de desempenho do sistema padrão de soquetes Java, que além de usar TCP/IP possui um caráter síncrono. Além de Infiniband, o Aldeia também procura usufruir dos avanços já realizados na biblioteca DECK, desenvolvida no GPPD da UFRGS. Com a sua adoção, é possível realizar comunicação com uma interface Java sobre redes Myrinet, SCI, além de TCP/IP. Somada a essa vantagem, a utilização do DECK também proporciona a propriedade de geração de rastros para a depuração de programas paralelos escritos com o Aldeia. Uma das grandes vantagens do Aldeia está na sua capacidade de transmitir dados assincronamente. Usando essa técnica, cálculos da aplicação podem ser realizados concorrentemente com as operações pela rede. Por fim, os canais de dados do Aldeia substituem perfeitamente aqueles utilizados para a serialização de objetos. Nesse mesmo caminho, o Aldeia pode ser integrado à sistemas que utilizem a implementação de soquetes Java, agora para operar sobre redes de alta velocidade. Palavras-chave: Arquitetura Infiniband, agregado de computadores, linguagem de programação Java, alto desempenho, interface de programação.
Resumo:
A máquina narrativa da Igreja Universal do Reino de Deus movimenta recursos não só lingüísticas, mas também outros que induem processos imaginativos engajados com o corpo, encenando nas suas performances uma teodicéia de guerra onde a luta final tem lugar nos carpos das pessoas, acionando uma forte mobilização das emoções. De outra parte, o Estado-nação uruguaio é fruto de uma intensa luta simbólica e política desenvolvida no final do século XIX e princípios do século XX, da qual surgiu triunfadora uma língua legítima moderna, secularizada e estadocêntrica que deu lugar a um fOlte processo de individualização e homogeneização das pessoas como indivíduos cidadãos. Os processos de conversão para esta Igreja implicam tempos e graus de engajamento diferenciados nas narrativas dos fiéis, que se acomodam à impronta individualista e igualitária herdada da tradição moderna uruguaia, e às próprias necessidades das pessoas que articulam diferencialmente com a máquina narrativa da Igreja. A irrupção da Igreja Universal no campo religiosos uruguaio tem resultado numa forte interpelação da língua legítima do Estado-nação com sua arraigada secularização e sua tradicional demarcação entre o espaço pública e a privatização do religioso.
Resumo:
A demanda por aplicações de workflow tem crescido rapidamente. Por um lado há uma evolução em ambientes com plataformas de sistemas maduras e disseminadas, por outro, processos de redesenho administrativo têm contribuído no aumento desta demanda. Apesar disto, profissionais de TI ainda encontram alguns problemas, e por isto, têm se aproximado de workflow com receio. Na administração pública de Porto Alegre, a otimização dos processos organizacionais de atendimento às demandas individuais dos cidadãos - que geram um registro em papel que constitui o que se denomina processo administrativo ou expediente, ou seja, um volume físico de papéis tramitando manualmente pelas estruturas que atuam no atendimento da demanda - redundou no emprego de ferramentas de automação para introduzir maior produtividade e eficiência na mudança dos métodos de trabalho. Mas alguns problemas se destacaram quando foi iniciado o desenvolvimento de aplicações de automação de processos. Uma face deles se mostrou em problemas conceituais que vão desde a confusão entre workflow e outras áreas, como BPR ou GED, à falta de domínio sobre as abstrações fundamentais na elicitação de workflow. Outra face se mostrou nos WMS, verdadeiros ambientes proprietários, fechados e pesados, de difícil utilização e pouco flexíveis para os desenvolvedores utilizarem em seu ambiente. Finalmente, outro problema foi a integração de aplicações de workflow com sistemas de informação, buscando informações e eventos em aplicações legadas, algumas existentes por décadas. Frente a isto, este trabalho aborda a produção de workflow sob a ótica dos desenvolvedores - analistas, projetistas e programadores - que necessitam criar aplicações corporativas em seus ambientes de Engenharia de Software. Neste cenário, a linha divisória entre a elaboração de uma aplicação de workflow e um sistema de informação se torna tênue, e compreender os aspectos envolvidos, dominá-los e utilizá-los neste ambiente é primordial para o sucesso e disseminação de aplicações de automação de processos. Este trabalho propõe uma extensão do Diagrama de Atividades da UML para modelar e elicitar o controle de atividades, a criação de um motor de workflow para executar a máquina de estados do Diagrama de Atividades, a ser utilizado como componente na arquitetura das aplicações. A utilização do motor de workflow e do Diagrama de Atividades estendido são apresentados num case de automação de um processo da Secretaria do Planejamento Municipal da Prefeitura Municipal de Porto Alegre que atende a solicitações diretas dos cidadãos.
Resumo:
O objetivo deste trabalho foi avaliar a influência da imersão no desinfetante a base de ácido peracético 0,2% (STERILIFE, Lifemed Produtos Médicos Comércio Ltda, São Paulo, SP) sobre as propriedades de resistência flexural, sorção e solubilidade do compósito odontológico BelleGlass HP (Kerr, Orange, USA). Para cada ensaio foram confeccionados dez corpos de prova do compósito, utilizando-se as matrizes determinadas pela especificação no 4049 da International Organization for Standardization (ISO), sendo cinco submetidos a três imersões no desinfetante durante 10 minutos, intercaladas por 10 minutos em água destilada estéril e os outros cinco serviram como grupo controle. Para o ensaio de resistência flexural, após os corpos de prova ficarem imersos em água a 37° C, por 24 horas, foram levados à Máquina de Ensaio Universal DL 2000 (EMIC, São José dos Pinhais, Paraná, Brasil). A norma ISO n0 4049 exige uma resistência flexural mínima de 100 MPa. Para os ensaios de sorção e solubilidade os corpos de prova foram submetidos a ciclos a 37 C em um dessecador por 22 horas e, 2 horas em um segundo dessecador, a 23C, até a obtenção de uma massa constante (m1). Após 7 dias em banho de água a 37 C, procedeu-se à avaliação da massa do corpo de prova hidratado (m2). Posteriormente as amostras retornaram para o primeiro dessecador e todo o ciclo foi repetido até encontrar-se a terceira massa (m3) recondicionada. A norma ISO n0 4049 exige valores menores ou iguais a 40 g/mm3 e 7,5g/mm3 para a aprovação, em relação à sorção e solubilidade. Os resultados deste trabalho mostraram que as propriedades de resistência flexural, sorção e solubilidade do compósito BelleGlass HP de todos os corpos de prova dos grupos experimental e controle atenderam às exigências da especificação. Portanto pode se prever que o procedimento da imersão neste desinfetante não trará prejuízo às restaurações indiretas do compósito considerando as propriedades avaliadas.
Resumo:
Esta tese aborda a identificação e análise das relações causais de incidentes (acidentes e quaseacidentes) no ato anestésico, em salas cirúrgicas, considerando os aspectos humanos, técnicos e organizacio nais envolvidos. Inicialmente, realizou-se revisão sistemática em estudos de casos (no Brasil e Estados Unidos da América - USA), sendo seu modelo descritivo, a direcionalidade retrógrada e o sentido temporal histórico. Procurou-se analisar e sintetizar as evidências sobre incidentes, onde foram identificadas oportunidades de melhorias nos modelos utilizados. A seguir, foram conduzidas pesquisas quali-quantitativas com questionários validados, cujos dados puderam revelar a existência de condutas sistemáticas conduzindo a desfechos desfavoráveis. A última etapa foi a aplicação de questionário adaptado da técnica NASA/TLX (National Aeronautics and Space Adiministration/Task Load) para avaliar o nível da carga de trabalho percebido pelos anestesiologistas durante a realização do ato anestésico. Dos resultados obtidos pôde-se constatar que 81,7% dos anestesiologistas têm a percepção que para ser um bom anestesiologista é necessário dar segurança aos pacientes. Dos estudos de casos de incidentes no ato anestésico, onde nos relatos são atribuídos 100% de falhas técnicas do dispositivo médico, os resultados refutaram esse dado e indicaram que 87,5% (Food and Drug Administration - FDA/USA), 66,7% (Sociedade Brasileira de Anestesiologia - SBA/BRASIL) e 94% (Estudo Exploratório - EE/BRASIL) foram falhas organizacionais. Identificou-se, na amostra estudada, que 50% (FDA), 58,8% (EE), 44,4% (SBA) das falhas humanas foram relacionadas a pouca familiaridade do anestesiologista com as tecnologias (dispositivo médico), ou seja , são problemas com a calibração do conhecimento. Os resultados mais significativos em relação à conseqüência dos incidentes foram: 6,3% (quase-acidentes) e 16,5% (acidentes) foram a óbito, 11,4% (quase-acidentes) e 17,7% (acidentes) sofreram seqüelas permanentes, 31,6% (quase-acidentes) e 46,8% (acidentes) sofreram internação prolongada. O fator de prevenção que mais se destacou foi a maior vigilância e constatouse que os anestesiologistas acreditam que 63,4% dos quase-acidentes e 50,7% dos acidentes podem ser evitados. Os modelos mentais pré-estabelecidos para análise de falhas em incidentes no ato anestésico que consideram apenas o fator humano-máquina não são mais suficientes, estes são sintomas de grandes problemas do sistema organizacional e, se não forem valorizados e analisados, podem realizar seu potencial.
Resumo:
Este trabalho avaliou comparativamente, em laboratório, a fidelidade dimensional de quatro materiais de moldagem usados nas moldagens finais em prótese total, um hidrocolóide irreversível (Hidrogum), um poliéter (Impregum) e dois silicones de adição (Honigum e Extrude), bem como a técnica de dupla moldagem, com ou sem alívio, usando o material Extrude de consistências média e leve. Para isto foi usado como corpo de prova um modelo metálico que simula um maxilar edêntulo, onde foram colocados quatro postes em forma do pirâmide, três truncadas, colocadas na crista do rebordo para medições horizontais, e uma inteira, que servia de referência para uma medição vertical. Com cada material ou técnica foram feitos dez moldes do modelo padrão, que foram vazados com gesso tipo IV. Os sessenta modelos obtidos, bem como o modelo-padrão, foram submetidos às medições das distâncias entre as referências situadas nas pirâmides, três medidas no sentido horizontal e uma no sentido vertical. Isto foi feito numa máquina para medição por coordenadas (tridimensionai), BRT-M507 fabricada pela Mitutoyo, com software Cosmos/Geopak-Win. Os resultados foram submetidos à analise de variância e testes complementares (Post Hoc Tests, de Duncan). A análise dos resultados mostra que quase todas as medidas no plano horizontal foram menores nas réplicas que no padrão, e que na medida vertical a discrepância entre os resultados foi maior, sendo umas medidas maiores e outras menores que no padrão. Estatisticamente, apenas numa das três distâncias avaliadas, Dist. 2, não houve diferença significativa entre os materiais. Concluiu-se que, com exceção do material Extrude em moldagem simples, os silicones e o poliéter tiveram desempenho semelhante, e que o hidrocolóide irreversível evidenciou os piores resultados. Outra conclusão foi que as duas técnicas de dupla moldagem usando materiais de consistências diferentes mostraram resultados semelhantes ao Honigum e Impregum, sendo mais precisas que estes na reprodução da altura, medida relacionada com a moldagem da zona de postdamming no paciente edêntulo.
Resumo:
A crescente concorrência entre empresas intensificou a importância de se prever vendas e gerenciar os estoques para conseguir uma maior competitividade. Uma das maneiras de se adquirir essa vantagem competitiva é através do posicionamento logístico, ou seja, da integração de processos de produção com processos de decisões logísticas. Assim, a pesquisa teve como objetivo avaliar, nas empresas de máquinas e implementos agrícolas da mesorregião Noroeste do estado do Rio Grande do Sul, as características do produto, da operação e da demanda e suas relações com as decisões logísticas e com a organização do fluxo de produtos. Para isso, a partir de um enfoque transversal, foi realizada uma pesquisa de campo de caráter exploratório e descritivo, considerando duas categorias de produtos, nos diferentes portes das empresas, numa amostra quase-aleatória com repetição. Verificou-se que as características do negócio, de acordo com o porte das empresas, apresentam padrões heterogêneos de decisões logísticas, dado esse verificado a partir da análise de dois conjuntos de resultados. No primeiro, onde se analisou as características do negócio por porte das empresas, pôde-se verificar que existem diferenças significativas no setor, as quais podem derivar do porte das empresas ou da categoria dos produtos. Nas decisões de posicionamento logístico, verificou-se, majoritariamente, que a coordenação do fluxo do produto é puxada; a alocação de estoques é centralizada e a base para o acionamento da fabricação de produtos acabados é contrapedido, com pequenas diferenças em relação ao porte e categorias de produtos No segundo conjunto de resultados, verificou-se, a partir de um grande número de correlações das características do negócio com as decisões logísticas, que as decisões, em termos gerais, são influenciadas, sobretudo, por características que refletem os riscos e os custos de se manter estoques, pelo nível de concorrência de mercado e pela necessidade de assegurar vendas atendendo rapidamente ao cliente. Na análise da mediana dessas características significativamente correlacionadas, foram apontados dados que servem de apoio para a tomada de decisão de posicionamento logístico, nos diferentes portes das empresas. Por fim, a organização do fluxo de produto mostrou que a combinação puxar/centralizar/ contrapedido é a mais adequada, já que se apresentou estatisticamente correlacionado com todos os diferentes portes das empresas, constituindo-se no alicerce para segmentação de eventual estratégia logística. Portanto, concluise que as informações geradas refletem a lógica de padrões de decisão logística, possibilitando orientação e direcionamento do planejamento e tomada de decisão com relação à organização do fluxo de produtos, além de constituir-se num referencial teórico que poderá sustentar futuros trabalhos de avaliação longitudinal no setor de máquinas e implementos agrícolas.