370 resultados para Especificações
Resumo:
Este trabalho avalia a importância e o desempenho dos atributos de qualidade nos serviços de conectividade de redes de uma concessionária de telecomunicações, segundo a percepção dos seus clientes. Foi realizado um levantamento qualitativo para identificar os atributos de qualidade mais importantes para os clientes, e a partir deste foi realizada uma pesquisa quantitativa na população de 161 clientes do estado do Rio Grande do Sul que utilizam estes serviços. Ao aplicar os resultados da pesquisa em uma matriz de importância x desempenho, foi possível classificar os atributos de qualidade destes serviços em ordem de importância, bem como avaliar o seu desempenho comparado com os atributos de qualidade dos mesmos serviços dos concorrentes. A identificação de atributos considerados importantes e com desempenho percebido pelos clientes inferior aos concorrentes, trouxe a necessidade de melhorar as características da qualidade nos serviços de conectividade de redes da Brasil Telecom. Para tanto, foi utilizada a metodologia QFD (Quality Function Deployment ou Desdobramento da Função Qualidade), que permite captar as necessidades, expectativas e desejos do consumidor e traduzi-las em requisitos de qualidade para um determinado serviço ou produto. Com base na priorização das características da qualidade definidas no QFD, foi proposto um plano de melhoria das especificações de qualidade dos serviços de conectividade de redes da concessionária de telecomunicações do estado do Rio Grande do Sul.
Resumo:
As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.
Resumo:
O presente trabalho está inserido num contexto de estudos relativos à caracterização e otimização de esquadrias residenciais em madeira. A contextualização dos estudos considera: o meio ambiente, com suas variáveis climáticas e locais; a constituição física e tecnológica de materiais, sistemas e componentes da esquadria; o perfil de desempenho técnico, funcional e utilitário, propiciado pela esquadria; e os processos técnicos de projeto, produção e instalação. Os instrumentos metodológicos aplicados no presente estudo são: entrevistas, levantamento dimensional, representação gráfica e observações para análise de processos de projeto, produção e instalação. O resultado principal está na análise comparativa e reformulação do projeto das esquadrias de um protótipo de habitação sustentável edificado no Campus da Universidade Federal do Rio Grande do Sul - UFRGS, em Porto Alegre. Como resultados complementares citam-se: o mapeamento das características físicas e mecânicas de madeiras, passíveis de serem empregadas na produção de esquadrias, e um estudo de informações que deveriam constar nas especificações técnicas e representações gráficas dos projetos de esquadrias residenciais em madeira.
Resumo:
Esta dissertação trata da elaboração de uma ferrramenta para a geração de filtros FIR otimizados paralelos com coeficientes constantes. A ferramenta desenvolvida é capaz de gerar uma descrição VHDL de um filtro FIR paralelo com coeficientes constantes a partir das especificações do filtro. São exploradas técnicas de otimização de coeficientes e de otimização arquitetural. As técnicas empregadas são baseadas no uso de representações ternárias e redução do número de digitos não-zero dos coeficientes, uso de fatores de escala e eliminação de sub-expressões comuns. No texto, uma breve introdução sobre os filtros digitais é apresentada seguida por uma série de trabalhos encontrados na literatura relacionados às técnicas mencionadas e que são apresentados como base para o desenvolvimento da ferramenta implementada nesta dissertação. O funcionamento da ferramenta é detalhado tanto nos seus aspectos de algoritmo quanto em nível de implementação. São apresentados resultados de síntese em alguns de filtros hipotéticos projetados utilizando a ferramenta desenvolvida. Uma análise detalhada dos resultados obtidos é realizada. Os apêndices deste trabalho apresentam o código fonte da ferramenta de síntese de filtros desenvolvida.
Resumo:
O objetivo deste trabalho é examinar a hipótese de que a estrutura a termo das taxas de juros é um bom indicador antecedente das trajetórias futuras da inflação e da atividade econômica, especificamente para o caso brasileiro, no período de 1999 a 2006. As evidências empíricas, examinadas através de regressões da inclinação da curva de juros realizadas contra a variação futura da produção industrial (IBGE) apresentaram resultados pouco robustos, porém coeficientes significativos a 5% (para prazos de projeção de 3 a 18 meses). Quando controlada para outras variáveis explicativas, manteve seu poder de previsão, sugerindo que há conteúdo informacional relevante na inclinação da curva de juros para previsão da produção industrial futura. As regressões realizadas contra a variação futura do PIB a preços constantes (IBGE) apresentaram resultados bastante fracos e coeficientes pouco significativos. Por outro lado, os resultados empíricos das regressões do spread da curva de juros contra a variação futura da inflação (IPCA) mostraram-se robustos, para todas as especificações de diferencial de curva de juros. Novamente, quando controlada para outras variáveis explicativas, manteve seu poder de previsão. As conclusões deste trabalho permitem sugerir aos bancos centrais estar atentos à informação contida na estrutura a termo de juros, utilizando-a como mais um input de informação nos modelos utilizados pela autoridade monetária para suas decisões de política monetária.
Resumo:
Este trabalho apresenta o desenvolvimento realizado para a implantação do novo sistema de despoeiramento dos Fornos Elétricos a Arco da Aciaria da Gerdau Riograndense. O desenvolvimento do novo sistema iniciou com a necessidade de substituir o antigo sistema de captação, pois este não estava obtendo o desempenho esperado. Os principais resultados obtidos com a implantação deste projeto foram o atendimento das especificações do projeto, comprovado pelos resultados obtidos nas medições de material particulado (MP), uma vez que as concentrações de material particulado medido estão abaixo do limite de emissão estabelecido pelo órgão de controle ambiental, e os resultados do estudo de dispersão, realizados para avaliar a qualidade do ar, utilizando modelagem matemática, atenderam aos limites legais de emissão estabelecidos pelo Conselho Nacional de Meio Ambiente - CONAMA. O estudo de dispersão foi elaborado após a implantação do sistema de despoeiramento, considerando os dados de entrada obtidos nas medições realizadas na saída dos gases da nova casa de filtros. As causas para o sucesso do projeto estão associadas a sólidos conhecimentos das tecnologias disponíveis da equipe responsável pela implantação do investimento, a visitas realizadas em outras empresas siderúrgicas, ao modelamento hidráulico que estabeleceu o dimensionamento correto do sistema e as experiências adquiridas na operação do antigo sistema de despoeiramento, pois orientaram as decisões tomadas no decorrer do projeto. A garantia da continuidade do desempenho do sistema implantado está assegurada por sua inclusão no programa de gestão ambiental da empresa.
Resumo:
Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.
Resumo:
The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
Este trabalho tem por objetivo analisar se a capacidade de resposta de política econômica foi fator relevante para minimizar a severidade da crise financeira de 2008, no primeiro ano do episódio. A hipótese da pesquisa é que países com um maior espaço para políticas expansionistas – maiores taxas de juros maiores e melhores resultados do governo central – tenham registrado uma crise menos severa, tudo mais constante. Os resultados econométricos corroboram com a hipótese em relação à política monetária. No que diz respeito à política fiscal, o sinal dos parâmetros encontrado é oposto ao esperado, sinalizando que, possivelmente, mesmo países com bons resultados fiscais possam ter limitações a estímulos keynesianos em função da tolerância ao seu nível de endividamento. Entretanto, a interação entre o resultado do governo central e o endividamento está em linha com a hipótese da pesquisa, uma vez que uma melhor gestão tanto do fluxo fiscal, quanto do estoque da dívida no ano anterior ao evento mostrou-se relevante. A adição da variável de investment grade às especificações ressaltou uma crise mais severa nas economias desenvolvidas.
Resumo:
A necessidade de se desenvolverem instrumentos adequados a avaliação de programas educacionais é premente no momento atual. Segundo os estudos mais recentes no campo da medida educacional, os testes com referência a critério são os que atendem a esta necessidade. Este estudo teve por objetivo a construção de dois testes deste tipo para a avaliação do Programa de Alfabetização Funcional do MOBRAL nos dominios da aquisição das competências basicas em leitura e escrita. Inicialmente foram selecionadas e descritas quatro competências para serem medidas por cada teste. As competências foram selecionadas tendo como base os objetivos do programa apresentados no Roteiro de Orientação ao Alfabetizador (1977). A segunda etapa do estudo consistiu na criação das especificações para cada competência selecionadas nos dois dominios. A partir destas especificações foram construidos 32 itens para o teste de leitura e 40 para o de escrita. Estes itens foram, distribuidos randomicamente em 5 formas experimentais para cada teste. O teste de leitura é composto de itens de múltipla escolha e o teste de escrita de itens de resposta construida. Os criterios de correção e os padrões minimos de desempenho foram estabelecidos para cada teste. Para a analise destes padrões minimos foram calculados as medias e os desvios-padrão para cada forma aplicada. Estes resultados permitem a manutenção dos padrões minimos usados em estudos posteriores. A análise dos itens foi feita em duas etapas: na primeira foram calculados os indices de discriminância pelo processo tradicional e na segunda os indices de sensitivida de pelo processo desenvolvido por Gronlund (1976). Os resultados obtidos permitiram o aproveitamento de todos os itens. Os itens foram divididos em duas formas equivalentes para cada teste, cada um pode ser subdividido em três subtestes para a medida isolada das competências descritas. Para o exame de validade foram estabelecidos os indices de validade descritiva e de seleção de dominio. A fidedignidade dos testes ficou assegurada com a construção de mais de 5 itens para competência Gronlund (1976).
Resumo:
Este trabalho, concebido dentro de uma perspectiva humanista, propõe-se a elaborar e testar um modelo de Diagnóstico e Intervenção Organizacional. A abordagem sistêmica permitiu a aplicação de conceitos da Teoria da Informação, tendo em vista a ideia de se elaborar uma sistemática de tratamento de dados coleta dos, que possibilite uma nova forma de Descrição de Cargos e consequente Especificações de Trabalho. O objetivo de tal colocação visa minorar as principais falhas existentes na passagem ' dos requisitos de Trabalho às Especificações decorrentes, tornando este "salto" menos subjetivo, mais operacional e melhor quantificável. Por outro lado, o tratamento de dados à luz da Teoria da Informação, permite a elaboração de novas categorizações e avaliações para fins psicológicos. Além de se obter uma classificação objetiva, operacional e dinâmica em termos de análise de trabalho, são formulados novos recursos com vista s a uma seleção adequada, um tratamento útil e específico, fundamentados nos elementos discriminantes de cada cargo. Finalmente, através de uma análise da estrutura e da dinâmica de uma organização específica, fundamentada em processos de análise de trabalho e de avaliação de pessoal, baseadas na teoria da, informação é também possível planejar-se mudanças organizacionais - com perspectivas ergonômicas - na área considera da crítica, para minimizar a eficiência dos recursos humanos de uma organização, isto é, a adaptação do trabalho ao Homem.
Resumo:
A multidisciplinaridade da tomada de decisão sofre com as peculiaridades de qualquer campo multidisciplinar. A falta de comunicação, muitas vezes, gera problemas e as respostas que podem ser encontradas dentro de outras áreas. Os Métodos de Estruturação de Problemas são respostas para os questionamentos atuais nas escolas de administração e negócios, principalmente o uso multimetodológico destes com outros métodos. Tendo o Soft Systems Metholodogy – SSM – como base, e a incorporação do Strategic Options Development and Analysis – SODA – ao processo do SSM, Georgiou (2012) apresenta o Planejamento Sistêmico em sua configuração mais recente. Visando buscar uma ferramenta computacional que atenda os pressupostos do SSM, e que incorpore as especificações da configuração do Planejamento Sistêmico, definem-se uma notação para o método e uma formalização das para as comunicações existentes entre os elementos, subsistemas, sistema e ambiente e, com isso, torna-se possível controlar o uso do método de forma iterativa. Para demonstrar tal uso, apresenta-se uma análise de um caso real e demonstra as dificuldades encontradas na utilização da Notação e Comunicação definida. Posteriormente, apresenta-se um desenho técnico de uma ferramenta computacional modular e que pode ser usada de forma integrada com outras ferramentas de outros métodos. Como resultado, têm-se o avanço na definição de padrões no uso das ferramentas do SSM, na apresentação dos aspectos sistêmicos do Planejamento Sistêmico, na apresentação de um uso iterativo do método e na apresentação de um desenho técnico para uma ferramenta computacional.
Resumo:
O modelo racional de decisão tem sido objeto de estudo constante na academia de vários países, contribuindo para evolução do ser racional como importante tomador de decisão. A evolução destes estudos tem aberto questionamentos quanto à capacidade de racionalidade que temos como tomadores de decisão, deleitando assim em várias teorias novas que pesquisam estas limitações no decidir. Especialmente aplicadas a teorias econômicas, estudos como Inteligência Artificial, Contabilidade Mental, Teoria dos Prospectos, Teoria dos Jogos entre outras se destacam neste cenário de estudo das finanças comportamentais. A contabilidade como ferramenta de apoio as decisões financeiras ocupa posição de destaque. Esta tem em seu escopo de trabalho normas (aquilo que deveria ser feito) que regulam sua atuação, em alguns casos esta regulamentação não é precisa em suas especificações, deixando janelas que levam seus profissionais a erros de interpretação. A imprecisão contábil pode causar viés em suas classificações. Os profissionais, deparados com este legado podem se utilizar de heurísticas para interpretar da melhor maneira possível os acontecimentos que são registrados na contabilidade. Este trabalho tem a intenção de análise de alguns pontos que consideramos importantes quando temos imprecisão contábil, respondendo as seguintes perguntas: a imprecisão de normas contábeis causa viés na decisão? O profissional que se depara com imprecisão contábil se utiliza de Heurística para decidir? Quais os erros mais comuns de interpretação sob incerteza contábil? Para que o assunto fosse abordado com imparcialidade de maneira a absorver retamente quais são as experiências dos profissionais que atuam na área contábil, foi elaborado um questionário composto por uma situação possível que leva o respondente a um ambiente de tomada de decisões que envolva a prática contábil. O questionário era dividido em duas partes principais, com a preocupação de identificar através das respostas se existe imprecisão contábil (sob a luz do princípio da prudência) e quais heurísticas que os respondentes se utilizam com mais freqüência, sendo o mesmo aplicado em profissionais que atuam na área contábil e que detenham experiências profissionais relacionadas à elaboração, auditoria ou análise de demonstrações contábeis. O questionário aplicado na massa respondente determinou, através das respostas, que existe, segundo os profissionais, interpretações diferentes para os mesmos dados, caracterizando assim zona cinzenta, segundo Penno (2008), ou seja, interpretações que podem ser mais agressivas ou mais conservadoras conforme a interpretação do profissional. Já quanto às estratégias simplificadoras, ou heurísticas, que causam algum tipo de enviesamento no processo decisório, alguns foram identificadas como: associações pressupostas, interpretação errada da chance, regressão a media e eventos disjuntivos e eventos conjuntivos, que reforçam a pesquisa dando indícios de que os respondentes podem estar tomando decisões enviesadas. Porém, não se identificou no estudo tomada de decisões com enviesamentos como recuperabilidade e insensibilidades ao tamanho da amostra. Ao final do estudo concluímos que os respondentes têm interpretações diferenciadas sobre o mesmo assunto, mesmo sob a luz do princípio contábil da prudência, e ainda se utilizam de estratégias simplificadoras para resolverem assuntos quotidianos.
Resumo:
O presente trabalho pretende demonstrar que o real avanço com o advento da previsão legal da empresa individual de responsabilidade limitada – EIRELI é a proteção conferida pela autonomia patrimonial e não a limitação da responsabilidade do comerciante. Visto que há uma escassez na literatura nacional a respeito do tema, iremos utilizar bibliografia norte americana como base para a primeira parte da pesquisa. Assim poderemos identificar as vantagens e desvantagens da responsabilidade limitada e da autonomia patrimonial para podermos concluir com uma análise de custo e benefício destes institutos jurídicos. Por fim, utilizaremos do conhecimento adquirido por toda esta análise para aplicarmos e adaptarmos as especificações da EIRELI. Nos apoiaremos em doutrina nacional somente em relação as regras de sociedades limitadas, pois a lei determina que estas serão usadas supletivamente para as empresas individuais de responsabilidade limitada. Com base nisso o trabalho será finalizado com uma questão pouco explorada, que é em relação a penhora e liquidação das quotas na EIRELI.