998 resultados para Ferramentas digitais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A motivação para este estudo nasceu de uma avaliação inicial, ocorrida durante a obtenção dos meus créditos em Marketing, segundo a qual, na bibliografia disponível, existiriam poucos trabalhos que tratassem das técnicas e métodos de gestão mercadológica, aplicáveis a indústrias não seriadas. Tendo desenvolvido carreira em indústrias fabricantes de bens de capital, pude assistir a várias "ondas" de filosofias, processos e tecnologias, as quais, freqüentemente, foram ou ainda são acompanhadas por pressões pela análise, para eventual adoção, destas "modas", o que, quando não levava à tomada de atitudes mal pensadas, tinha como contrapartida o desperdício de tempo dos envolvidos. Com o passar do tempo, isto trazia como conseqüência o desenvolvimento de uma cultura de rejeição a tudo que vinha de fora, pois os envolvidos já estavam tão cansados de analisar novidades, as quais raramente eram implementadas, que dificilmente concordavam em investir mais tempo neste tipo de atividade, preferindo seguir as receitas caseiras. Na área mercadológica, que não se constitui em exceção à regra, freqüentemente surgem novos modismos, e o fenômeno acima descrito ocorre com renovada intensidade, pelas características peculiares do setor: as vendas para cada cliente são muito espaçadas no tempo, em termos de equipamentos, e no caso dos serviços, embora haja uma maior freqüência nas vendas, o centro de compras envolvido é, via de regra, diverso daquele empenhado na compra de novos equipamentos, o que torna a administração dos relacionamentos com os clientes bastante complexa. No caso específico das técnicas e metodologias, publicadas na área de Marketing, pode-se perceber que a imensa maioria foi desenhada para ser aplicada na transação final com o consumidor, ou nos estágios finais da cadeia produtiva, entre os fornecedores de material produtivo para produtores de bens de consumo e os próprios, e/ou entre os produtores de bens de consumo e seus respectivos canais. No entanto, isto não impede que se tente vender aos fabricantes de bens de capital versões, mais ou menos modificadas, das técnicas e sistemas "da moda", o que nos remete à situação, citada anteriormente, de ter de escolher

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desenvolve-se nessa dissertação urna análise das principais ferramentas que foram utilizadas em um processo de mudança da rede de distribuição da Cia. Cervejaria Brahma. A partir de uma apresentação inicial das principais forças propulsionadoras de mudança no cenário da indústria a partir do início dos anos 90, analisam-se as características de cada ferramenta e o papel que eles desempenharam no processo de mudança organizacional corno um todo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A melhoria da qualidade da prestação de serviços em virtude do aumento da competitividade nas empresas vem se tornando uma realidade evidente para aquelas que desejam continuar atuantes no mercado de serviços. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e para isto, abordagens de Qualidade como Lean Seis Sigma encontram as condições propícias para sua utilização. Lean Seis Sigma é uma metodologia de melhoria de qualidade que apresenta foco na variabilidade dos processos e objetiva a redução de falhas ou defeitos por meio do arcabouço de técnicas e ferramentas estatísticas da qualidade. Este trabalho tem como proposta a apresentação de um roteiro de referência para a aplicação de Lean Seis Sigma em Serviços utilizando-se, ainda, de Simulação Computacional de processos, uma poderosa ferramenta que possibilita maior agilidade e precisão à aplicação do roteiro. Inicialmente foi realizada uma revisão bibliográfica para apresentar um referencial teórico de conceitos sobre Lean Seis Sigma, Simulação Computacional e Casos de Implementação para que, a partir desta base, fosse desenvolvida o roteiro de aplicação de Lean Seis Sigma em Serviços. Para validação da proposição, realizou-se um estudo de caso em um processo de serviço de uma grande instituição financeira, aplicando-se o roteiro proposto e analisando os resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Trata-se de uma descrição da evolução das principais medidas de desempenho aplicadas pelas empresas para avaliar o resultado de suas estratégias através da geração de valor econômico para seus acionistas. Caracteriza as limitações das medidas de desempenho, apontando estudos empíricos que avaliam a sua correlação com a maximização dos retornos. Aborda o alinhamento da estratégia e dos indicadores de desempenho aos sistemas de remuneração variável, impulsionando a maximização dos resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A revisão de conceitos trata do tema risco e análise de risco, sob o aspecto teórico, definindo e explorando as dimensões dadas pelos estudiosos do assunto e pelos profissionais de seguro, dando conceitos de risco e técnicas de gestão de risco. Apresenta na seção prática um estudo de caso de subscrição de apólice de um grande lote de automóveis, derivado de uma situação real, modelando o problema e aplicando o método da simulação como ferramenta de análise de risco para problemas de incerteza na indústria de seguros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo pretendia identificar o entendimento do cliente da área de business-to-business sobre a qualidade, o sacrifício e o valor percebidos, no processo para a tomada de decisão pela compra de produtos que estão passando pela transição de tecnologia analógica para a tecnologia digital. A pesquisa foi realizada por meio de um censo com as lojas de fotografia localizadas na cidade de São Paulo, consumidoras do produto Minilab Digital. Foi constatado que esse consumidor, por meio da utilização da tecnologia digital, reconhece o valor como vantagem (ganho), e que a estrutura do modelo de Zeithaml (1988) é adequada para esse mercado. Foram observados ainda a qualidade, o sacrifício e o risco percebidos por esse consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The evolution of integrated circuits technologies demands the development of new CAD tools. The traditional development of digital circuits at physical level is based in library of cells. These libraries of cells offer certain predictability of the electrical behavior of the design due to the previous characterization of the cells. Besides, different versions of each cell are required in such a way that delay and power consumption characteristics are taken into account, increasing the number of cells in a library. The automatic full custom layout generation is an alternative each time more important to cell based generation approaches. This strategy implements transistors and connections according patterns defined by algorithms. So, it is possible to implement any logic function avoiding the limitations of the library of cells. Tools of analysis and estimate must offer the predictability in automatic full custom layouts. These tools must be able to work with layout estimates and to generate information related to delay, power consumption and area occupation. This work includes the research of new methods of physical synthesis and the implementation of an automatic layout generation in which the cells are generated at the moment of the layout synthesis. The research investigates different strategies of elements disposition (transistors, contacts and connections) in a layout and their effects in the area occupation and circuit delay. The presented layout strategy applies delay optimization by the integration with a gate sizing technique. This is performed in such a way the folding method allows individual discrete sizing to transistors. The main characteristics of the proposed strategy are: power supply lines between rows, over the layout routing (channel routing is not used), circuit routing performed before layout generation and layout generation targeting delay reduction by the application of the sizing technique. The possibility to implement any logic function, without restrictions imposed by a library of cells, allows the circuit synthesis with optimization in the number of the transistors. This reduction in the number of transistors decreases the delay and power consumption, mainly the static power consumption in submicrometer circuits. Comparisons between the proposed strategy and other well-known methods are presented in such a way the proposed method is validated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma metodologia de projeto para identificar as regiões críticas da estrutura de um reboque de linha leve sendo tracionado em pavimentos do tipo rodovia de baixa qualidade e estrada secundária de muito baixa qualidade. Para tanto, são levantados alguns dados experimentais da estrutura, necessários para a aproximação e simulação dinâmica de um modelo simplificado. A excitação da base é realizada por atuadores que simulam as oscilações verticais de um perfil de estrada, a qual é definida de acordo com os estudos realizados por Dodds e Robson (1973). Isto permite a determinação de um histórico de carregamentos das regiões da estrutura do chassi sob a ação das molas da suspensão. Em seguida, é gerado um modelo estrutural simplificado do reboque em elementos finitos, chamado de global, no qual são determinadas as regiões sob ação das maiores tensões. Tendo identificada a região mais crítica da estrutura, é criado um modelo local desta parte, onde se pode observar a distribuição de tensões com mais detalhe, permitindo a identificação dos pontos de concentração de tensões. Desta forma, com a aplicação do método de análise global-local é possível a obtenção de resultados detalhados quanto aos esforços da estrutura com um menor custo computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa aborda o processo de reconhecimento, amadurecimento e conquista da temática da cultura digital pelo Ministério da Cultura brasileiro, na gestão de Gilberto Gil (de janeiro de 2003 a julho de 2008). Focaliza a genealogia da primeira política pública cultural voltada ao contexto das redes e tecnologias digitais: os Pontos de Cultura, integrantes do Programa Cultura Viva, dotados de estúdios de produção audiovisual com conexão à internet, distribuídos por todo o país, em áreas de vulnerabilidade social. A proposta dá centralidade, não à infraestrutura tecnológica, mas ao potencial de transformação suscitado pelos novos paradigmas de produção, circulação e consumo cultural do contexto das redes. Este trabalho se situa na interseção dos novos campos de saber dos Estudos Culturais e dos Estudos Culturais do Software, bem como da área dos estudos em comunicação, incorporando ainda a dimensão das políticas públicas e a perspectiva da contribuição de trajetórias pessoais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o advento dos sensores hiperespectrais se tornou possível em sensoriamento remoto, uma serie de diferentes aplicações. Uma delas, é a possibilidade de se discriminar classes com comportamentos espectrais quase idênticas. Porém um dos principais problemas encontrados quando se trabalha com dados de alta dimensionalidade, é a dificuldade em estimar os inúmeros parâmetros que se fazem necessários. Em situações reais é comum não se ter disponibilidade de tamanho de amostra suficiente, por exemplo, para se estimar a matriz de covariâncias de forma confiável. O sensor AVIRIS fornece uma riqueza de informações sobre os alvos, são 224 bandas cobrindo o espectro eletromagnético, o que permite a observação do comportamento espectral dos alvos de forma muito detalhada. No entanto surge a dificuldade de se contar com uma amostra suficiente para se estimar a matriz de covariâncias de uma determinada classe quando trabalhamos com dados do sensor AVIRIS, para se ter uma idéia é preciso estimar 25.200 parâmetros somente na matriz de covariâncias, o que necessitaria de uma amostra praticamente impraticável na realidade. Surge então a necessidade de se buscar formas de redução da dimensionalidade, sem que haja perda significativa de informação. Esse tipo de problema vem sendo alvo de inúmeros estudos na comunidade acadêmica internacional. Em nosso trabalho pretendemos sugerir a redução da dimensionalidade através do uso de uma ferramenta da geoestatística denominada semivariograma. Investigaremos se os parâmetros calculados para determinadas partições do transecto de bandas do sensor AVIRIS são capazes de gerar valores médios distintos para classes com comportamentos espectrais muito semelhantes, o que por sua vez, facilitaria a classificação/discriminação destas classes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.