370 resultados para Especificações
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
Licitação é um procedimento administrativo pelo qual a Administração Pública Direita ou Indireta efetua aquisição de bens e serviços.Um procedimento que atenda ao interesse público deverá ser praticado com rigor, obedecendo aos critérios estabelecidos em lei, bem como os princípios norteadores da Administração Pública.Em regra, o procedimento é obrigatório, no entanto, a Legislação traz hipóteses de licitação dispensada, dispensável e inexigível.É necessária a realização de todos os atos, pois a falta de algum ensejará anulação do procedimento.As modalidades constantes na Lei Geral de Licitações devem atender aos requisitos peculiares da norma.Não foge á regra a modalidade denominada Pregão, que está prevista em Legislação Especial.É um procedimento que visa à celeridade da contratação, a contratação do bem ou serviço pelo menor preço e possui características próprias, tais como a contratação de bens e serviços comuns, a inversão das fases de habilitação e julgamento, a possibilidade de efetuar lances verbais e a unificação da fase recursal.Bens e serviços comuns são aqueles que são definidos objetivamente pelo edital com base nas especificações de mercado.A inversão de fases do procedimento tem como escopo a habilitação de apenas um licitante, ou seja, o vencedor.Uma inovação ao procedimento licitatório é a fase de lances verbais, onde o participante poderá reduzir sua oferta visando atingir o menor preço e ser declarado vencedor do certame.Para atender ao princípio da celeridade, foi designada uma única fase para recursos, onde o participante poderá manifestar-se, motivadamente, seu inconformismo em sessão pública.Declarado o vencedor do certame,far-se-á o exame das propostas, adjudicará o objeto e homologará o procedimento, para que ao final seja celebrado o contrato administrativo ou o instrumento designado em edital.Mesmo possuindo uma legislação própria, haverá casos em que a Lei Geral de Licitações será aplicada subsidiariamente.
Resumo:
A argila é uma matéria-prima básica nos processos de fabricação de pisos e azulejos. Especificações industriais devem ser cumpridas para sua utilização como componente das formulações cerâmicas. A homogeneidade é vital. Nos depósitos minerais fonte desse material, as características cerâmicas da argila, sua representatividade, variabilidade e interação com a geologia local precisam ser bem conhecidas, a fim de propriamente quantificá-la e classificá-la de forma georeferenciada. Isso consubstancia a tomada de decisões mineiras relacionadas. Essa dissertação apresenta uma alternativa metodológica de avaliação de recursos geológicos e reservas recuperáveis de argila cerâmica, em uma perspectiva probabilística. Métodos geoestatísticos como krigagem e simulação estocástica são aplicados em suporte de blocos de lavra. Recursos geológicos ocorrentes nos diversos setores de um depósito estudado são estimados acuradamente. Em sua porção mais favorável reservas recuperáveis são avaliadas, sob critérios cerâmicos e de seletividade mineira, tomados separadamente e em conjunto, em escala global e local Para o estudo de caso apresentado, duas propriedades cerâmicas pós-queima são consideradas, absorção d’água e retração linear, além da espessura do horizonte argiloso. Modelos de cenários extremos e medianos de reservas são construídos, flexibilizando a apreciação do quadro geral obtido, e permitindo assim maior segurança na condução de decisões e eventuais operações mineiras. Comparativos com métodos tradicionalmente utilizados na avaliação deste tipo de depósitos, em suas diversas fases, comprovam as vantagens da metodologia proposta, a qual permite, além da quantificação e classificação cerâmica de reservas, uma incorporação de margem de riscos nas predições realizadas.
Resumo:
A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.
Resumo:
Este trabalho apresenta a proposta de um editor de diagramas hierárquico e colaborativo. Este editor tem por objetivo permitir a especificação colaborativa de circuitos através de representações gráficas. O Blade (Block And Diagram Editor), como foi chamado, permite especificações em nível lógico, usando esquemas lógicos simples, bem como esquemas hierárquicos. Ao final da montagem do circuito, a ferramenta gera uma descrição textual do sistema num formato netlist padrão. A fim de permitir especificações em diferentes níveis de abstração, o editor deve ser estendido a outras formas de diagramas, portanto seu modelo de dados deve ter flexibilidade a fim de facilitar futuras extensões. O Blade foi implementado em Java para ser inserido no Cave, um ambiente distribuído de apoio ao projeto de circuitos integrados, através do qual a ferramenta pode ser invocada e acessada remotamente. O Cave disponibiliza um serviço de colaboração que foi incorporado na ferramenta e através do qual o editor suporta o trabalho cooperativo, permitindo que os projetistas compartilhem dados de projeto, troquem mensagens de texto e, de forma colaborativa, construam uma representação gráfica do sistema. Objetivando fundamentar a proposta da nova ferramenta, é apresentado um estudo sobre ferramentas gráficas para especificação de sistemas, mais especificamente sobre editores de esquemáticos. A partir dessa revisão, do estudo do ambiente Cave e da metodologia de colaboração a ser suportada, fez-se a especificação do editor, a partir da qual implementou-se o protótipo do Blade. Além do editor, este trabalho contribuiu para a construção de uma API, um conjunto de classes Java que será disponibilizado no Cave e poderá ser utilizado no desenvolvimento de novas ferramentas. Foram realizados estudos sobre técnicas de projeto orientado a objeto, incluindo arquiteturas de software reutilizáveis e padrões de projeto de software, que foram utilizados na modelagem e na implementação da ferramenta, a fim de garantir a flexibilidade do editor e a reusabilidade de suas classes. Este trabalho também contribui com um estudo de modelagem de primitivas de projeto de sistemas. No modelo orientado a objetos utilizado no editor, podem ser encontradas construções muito utilizadas em diferentes ferramentas de projeto de sistemas, tais como hierarquia de projeto e instanciação de componentes e que, portanto, podem ser reutilizadas para a modelagem de novas ferramentas.
Resumo:
Este trabalho de conclusão tem como tema a Qualidade Seis Sigma e a produção de tintas, com foco no parâmetro viscosidade. O objetivo principal é o estudo da variabilidade da viscosidade das tintas, com vistas à diminuição do número de desvios de viscosidade de lotes de produção e, conseqüentemente, do retrabalho e lead-time fabril. Inicialmente, foi realizada uma revisão bibliográfica sobre a metodologia Seis Sigma, suas principais ferramentas, e sobre os processos de produção de tintas, suas fontes de variabilidade e possibilidadesde melhoria.Na seqüência, foi conduzido o estudo de caso, realizado em uma tradicional fábrica de tintas da grande Porto Alegre. O estudo seguiu as etapas da metodologiaSeis Sigma:definição,mensuração,análise,aprimoramentoe controle. Dos lotes de tinta analisados, 78,5% necessitaram de algum tipo de ajuste de viscosidade.A viscosidadedas tintas, após a etapade completagem,foi, em média, 5,3 vezes maior que a semi-amplitude da tolerância. O tempo médio de ajuste de viscosidade foi de 20 minutos, o dobro do tempo gasto caso fosse feita somente a medição da viscosidade. Analisando-se a viscosidade em segundos, a diferença entre a medição já com o solvente previsto, e a medição logo após a completagem, foi, em média, de 28 segundos. A etapa de acertos de cor e brilho proporciona um aumento médio na viscosidade de cerca de 6 segundos Observou-se que os processos de fabricação não eram estáveis e nem capazes de atender as especificações, sem a etapa de ajustes, sendo o pior processo o em moinho pequeno (l,5P), e o melhor, em processo mistura. O sistema de medição contribuía para a variabilidade da viscosidade e foi melhorado. Outros fatores influentes na variabilidade da viscosidade foram: o fluxo de moagem, a sistemática de lavagem dos moinhos e a instabilidade (aumento) da viscosidade com o tempo. Como etapa final, foram sugeridas melhorias para o processo, na forma de um plano de ação, contemplando todos os fatores de variação identificados.
Resumo:
Todos os processos industriais são forçados a cumprir especificações de produto através da inserção de rigorosos parâmetros de controle, principaJmente devido à globalização do mercado. A tendência mundial indica que cada vez mais a cor passa a ser um parâmetro primordial para a colocação do produto no mercado. Neste contexto, uma das dificuldades da indústria mineral é a inexistência de equipamentos adequados para a medição da cor de polpas de minério durante o processamento mineral. Isto se verifica principalmente para os minerais industriais que são caracterizados, na maioria das vezes, em termos de índices de alvura e amarelamento. Este traballio tem como objetivo principal avaliar o uso do equipamento Colorcell, utilizado e desenvolvido pela empresa Renner-HerrmaIlll para a produção de tintas, na indústria de processamento mineral. Os ensaios foram realizados com um equipamento similar ao original. Para se compreender as variáveis operacionais do equipamento utilizou-se um produto à base de carbonato de cálcio natural. Após a delimitação das variáveis e definição de uma metodologia de trabalho, foram caracterizados outros minerais utilizados nas indústrias de tintas, papel e plásticos. O sistema Colorcell também foi utilizado para o controle do processamento de caulim de uma empresa da região sul do Brasil. Ensaios em laboratório permitiram o ajuste de um modelo cinético para a etapa de alvejamento da empresa. A tecnologia Colorcell indica que além dos resultados benéficos ao controle de processo é possível correlacionar a caracterização colorimétrica em polpa com o método tradicional de medição de cor.
Resumo:
O presente estudo elabora um índice de violência para o Estado do Rio Grande do Sul, em seus 467 municípios, durante o período de 1992 a 1999. Não se buscaram explicações para o comportamento das taxas, mas somente uma descrição de sua evolução ao longo do período. Desta forma, procura-se um processo analítico que permita que, mais tarde, sejam trabalhadas as relações, conceitos e papéis frente ao processo de desenvolvimento humano e regional. A pesquisa trabalha com índices de criminalidade que se fundamentam no critério da agilidade da informação, proporcionada por estas medidas, para o diagnóstico dos problemas da violência municipal e para a elaboração de políticas voltadas à segurança. Em janeiro de 2000 foi divulgado o trabalho desenvolvido pela Fundação de Economia e Estatística Siegfried Emanuel Heuser (FEE)1, intitulado Índice Social Municipal Ampliado (ISMA) para o Rio Grande do Sul (1991-1996). O objetivo do mesmo era comparar as posições intermunicipais a partir de “indicadores sociais que foram selecionados”2 e definidos em blocos de educação, saúde, renda e condições de domicílio e saneamento. Desta forma, comparou-se e classificou-se num ranking os melhores e piores municípios do Estado do Rio Grande do Sul pela média do período de 1991 a 1996. Buscando complementar e aprimorar o trabalho, este estudo tem a proposta de acrescer, nos mesmos municípios, o bloco segurança, proporcionando uma maior integração dos resultados a partir dos dados sintetizados e complementados. Reunindo os resultados anteriormente apurados pela pesquisa da FEE com aqueles que serão obtidos por este trabalho atingir-seá um melhor conhecimento da realidade sócio-econômica gaúcha. Faz parte integrante deste trabalho um disco compacto, cujas especificações encontram-se no Capítulo 5.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Este trabalho apresenta uma análise das melhorias introduzidas no Processo de Desenvolvimento de Produtos (PDP) de uma empresa de calçados denominada Calçados Reifer Ltda. Estas melhorias foram aplicadas especificamente ao setor de Modelagem, que é o principal responsável por este desenvolvimento, objetivando sua otimização e a diminuição no parâmetro tempo de entrega do novo produto ao mercado. O processo de desenvolvimento dos novos modelos na indústria de calçados é estratégico, devido aos requisitos dos clientes relativos a este parâmetro serem progressivamente menores -especialmente para as companhias que produzem para exportação. Qualquer demora relativa à definição ou ao cumprimento das especificações de produto podem pôr em risco a competitividade da empresa. Assim, foi analisada a estrutura do PDP atual baseada nas referências teóricas, como as providas pelas ciências administrativas, e pela gestão do desenvolvimento de produtos e processos. A proposta de um processo aperfeiçoado e mais rápido, baseado em uma abordagem específica de gestão de recursos, introduzindo melhorias significativas na gestão do processo e na qualidade do produto final obtido, a par da agilização do processo, possibilitou a obtenção de melhorias no PDP.
Resumo:
A reciclagem de resíduos apresenta-se como uma alternativa adequada com relação à preservação dos recursos naturais e do meio ambiente. As escórias de aciaria são resíduos siderúrgicos originados na fabricação do aço, e são geradas em grandes quantidades. Estes resíduos são estocados nos pátios siderúrgicos, onde permanecem, na sua maioria, sem qualquer destino. Normalmente, as escórias de aciaria são volumetricamente instáveis, apresentando características expansivas, e por esta razão, a aplicação das mesmas em materiais de construção torna-se restrita. Esta pesquisa tem como objetivo estudar a viabilidade técnica do uso das escórias de aciaria LD como adição em cimentos, propondo um método de estabilização por meio de granulação por resfriamento brusco destas escórias, buscando, desta forma, a eliminação do fenômeno da expansão, e visando a melhoria das características destes resíduos. No processo de estabilização, a escória líquida foi granulada em uma usina siderúrgica. Estudos complementares de granulação foram realizados nos laboratórios da UFRGS, empregando-se escórias refundidas. A granulação por resfriamento brusco favoreceu a redução do CaOlivre, a eliminação do MgO na forma de periclásio, e a eliminação do bC2S das escórias, considerados agentes causadores da expansão. No entanto, a elevada basicidade da escória LD dificulta a formação da estrutura vítrea e a separação da fração metálica após o resfriamento brusco. Foram realizados ensaios de expansão das escórias, atividade pozolânica, e resistência mecânica de argamassas com escórias granuladas. O resfriamento brusco proporcionou a eliminação da expansão e o desenvolvimento das propriedades pozolânicas/cimentícias da escória granulada. Como adição em cimentos, do ponto de vista da resistência mecânica, as argamassas compostas com escórias granuladas e clínquer apresentaram níveis de resistência à compressão axial compatíveis com as especificações referentes ao cimento Portland composto, apesar destes resultados serem inferiores aos obtidos para as argamassas de referência.
Resumo:
Este trabalho tem por objetivo promover uma análise dos ciclos econômicos de Brasil, Argentina e Estados Unidos, dando ênfase às mudanças de regimes ocorridas ao longo das flutuações experimentadas por esses países. Estudos recentes sobre ciclos têm argumentado em favor de ciclos internacionais de negócios. Nesse sentido, em especial, o trabalho visa testar a hipótese de um ciclo comum que afetaria ambos os países. A metodologia utilizada é a dos modelos MS-VAR – Markov switching vector autoregressions. Especificações univariadas são estimadas para o período de 1900 a 2000 e os resultados comparados aos fatos estilizados de cada país. Posteriormente um modelo multivariado é formulado para abrigar a hipótese de um ciclo conjunto, visto como mudanças comuns no processo estocástico do crescimento desses países. Os resultados sugerem que as evidências em favor desse ciclo comum são pouco robustas. As correlações contemporâneas estimadas apresentam valores bastante modestos. Em particular, existem significativas diferenças nos ciclos de Brasil, Argentina e Estados Unidos, cada um deles com características próprias e comportamentos singulares.
Resumo:
Este trabalho insere em seu conteúdo dois propósitos: o primeiro é o de apresentar uma microusina experimental, uma planta piloto de uma microcentral hidrelétrica automatizada, que foi montada para ser utilizada como laboratório de pesquisas do desempenho de máquinas assíncronas de até 5CV operando como geradores de energia elétrica. Para isso, apresentamos todos os equipamentos com as suas respectivas especificações, a descrição do funcionamento e documentos gerais do projeto. O segundo é fazer uma revisão do uso da máquina assíncrona, funcionando como gerador de energia elétrica ligada à rede de distribuição local. Estudamos e apresentamos algumas conclusões sobre o comportamento deste tipo de gerador, no contexto de uma microcentral hidrelétrica automatizada, em situações operacionais onde se pode contemplar máxima potência ou máximo fator de potência ou, então, máximo rendimento. Realizamos análises teóricas considerando o circuito equivalente do gerador instalado na microcentral; foram geradas curvas das grandezas envolvidas no processo de geração de energia elétrica, e estes resultados foram comparados com as medidas fornecidas pelas leituras dos instrumentos, enquanto a máquina no ambiente da microusina experimental, era submetida à situação de carga zero até a máxima. Com os resultados colhidos procuramos estabelecer uma relação entre a potência mecânica nominal de motores assíncronos com a potência ativa nominal deste tipo de máquina operando como gerador.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.