999 resultados para métodos críticos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As administrações públicas contemporâneas vêm sofrendo diversas formas de pressão para que promovam a modernização de suas estruturas e serviços, provenientes não somente da própria sociedade, mas também derivadas das crises fiscais que assolaram diversos países nas últimas décadas. Uma das opções dos governos a fim de atender a essa demanda está no uso do potencial das tecnologias de informação e de comunicação em prol de melhores serviços ao cidadão e numa maior eficiência do aparato estatal. Esse movimento contemporâneo, associado principalmente ao advento da computação pessoal e da Internet, tem sido chamado Governo Eletrônico (e-Gov). Uma das suas ações relaciona-se à construção de serviços eletrônicos que integrem diversas agências governamentais em formato colaborativo. Entretanto, projetos de e-Gov que demandam esse grau de integração possuem complexidade de implementação aparentemente maior que projetos tradicionais, o que se reflete nos baixos índices de sucesso encontrados mundialmente. Existem hoje metodologias e frameworks de gestão de projetos disponíveis e consolidados no mercado, tal como o provido pelo Project Management Institute – PMI, por meio do Project Management Body of Knowledge – PMBOK, publicação que representa uma agregação dos conhecimentos dos mais de 230.000 profissionais associados ao PMI, principalmente nos aspectos conhecidos como “boas práticas”. Ele é aceito como um padrão de gestão de projetos pelo ANSI – American National Standards Institute e pelo Institute of Electrical and Electronics Engineers – IEEE (PMI, 2007). A questão que esta pesquisa procura explorar é a identificação das boas práticas na gestão de projetos de e-Gov multi-agências. Para isso, baseou-se no modelo proposto pelo PMBOK, considerado pela literatura como um framework abrangente e de grande reconhecimento (LEITE, 2004). A partir dessa análise, procurou-se identificar quais foram os fatores mais relevantes para o sucesso do projeto e como foram geridos pela equipe participante. Com esse intuito, essa pesquisa apresenta um estudo em profundidade do projeto Nota Fiscal Eletrônica – NF-e do Governo do Estado de São Paulo, projeto de e-Gov que possui integração nacional entre múltiplas agências (seis Administrações Tributárias Estaduais, Receita Federal e dezenove grandes empresas) e grande complexidade técnica e de gestão. Os resultados encontrados sugerem que o apoio da alta administração, a criação de um relacionamento de confiança, a participação de empresas no projeto, a alta capacidade das equipes envolvidas, a definição de um escopo viável e a utilização de padrões abertos são fatores que colaboram significativamente para o sucesso de projetos como a NF-e.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta métodos quantitativos próprios para a discriminação entre grupos, baseados em Análise Discriminante Linear, Regressão Logística, Redes Neurais e Algoritmos Genéticos, dentro do contexto do problema da análise de crédito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho revisa os principais métodos numencos utilizados para reproduzir o comportamento de um índice, implementa quatro desses modelos ao caso brasileiro (Índice Bovespa) e discute a aplicação e os pontos favoráveis e desfavoráveis de cada modelo. Em uma primeira etapa, a vantagem da. administração passiva e a potencialidade de uso de uma carteira espelho são descritas. Em seguida, os modelos de replicação existentes na literatura no tocante a suas respectivas hipóteses, suas derivações matemáticas e suas propriedades teóricas são apresentados. Após essa revisão, os modelos de replicação plena, de carteira de rrururna vanancia global, de Black e de minimização quadrática sem venda a descoberto são implementados. Os resultados são verificados sob os parâmetros de tracking errar, beta, R-quadrado e semelhança de série em relação à média e à variância. A conclusão é de que existem diferentes objetivos ao se replicar um índice e que, para cada um destes objetivos, diferentes abordagens ou ferramentas são adotadas. Por exemplo, o administrador que busca o retorno de um índice de mercado, deve conseguir os melhores resultados utilizando o modelo de replicação plena. Já para aquele que visa arbitragem de índice, através de ativos do mercado à vista, a recomendação é aplicar os modelos que utilizam a otimização quadrática para montar a carteira espelho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este projeto tem por objetivo contribuir para que, a implementação de um Sistema da Qualidade Total, em uma Unidade de Processamento de Dados e Serviços (Cesec), de uma empresa estatal, possa utilizar alguma experiência de outras empresas, que obtiveram sucesso em implementações de sistemas como este, e com isso melhorar ou até mesmo diminuir custos nesta fase inicial do processo, tornando-o mais ágil e incorporando desde o início alguns dos mais importantes conceitos a respeito de Sistemas da Qualidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta os métodos de avaliação de empresas baseados nos descontos de fluxos de caixa futuros, enfocando dois modelos, o do Fluxo de Caixa Descontado (DCF) e o do Lucro Econômico. Analisa cada um destes modelos em termos de seus componentes e explicita o inter-relacionamento destes últimos. Expõe a importância dos direcionadores de valor, que, entendidos de uma forma mais ampla, incluem, além de ROIC (retorno sobre o capital investido), e (taxa de crescimento) e NOPLAT (lucro operacional líquido já descontado dos efeitos do imposto de renda), o WACC (custo médio ponderado de capital) e o capital investido, entre outros. Apresenta um estudo de caso, tendo uma companhia industrial brasileira de capital fechado como seu objeto. Analisa os resultados deste estudo, principalmente as dificuldades encontradas no processo de cálculo do valor. Relaciona estas dificuldades à natureza do controle de capital fechado da companhia estudada. Extrai conclusões, apresenta algumas limitações e sugere pesquisas e desenvolvimentos futuros

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho visa identificar os fatores percebidos como críticos para o sucesso na indústria de consoles domésticos de videogame, e novos fatores importantes que possam surgir para o sucesso desta indústria dinâmica e em constante evolução. Para esta análise, utiliza-se como base o referencial teórico de estratégia emergente, valor da inovação, gerenciamento e dinâmica da cadeia de valor, e economia da informação. Faz-se uma revisão histórica da indústria, a cada geração de consoles, e um descritivo do seu momento atual, seguido de um detalhamento dos participantes da indústria e o mapeamento da cadeia de valor para os consoles domésticos de videogames, baseado na literatura existente e nas entrevistas com especialistas de mercado. Foi feito um estudo de caso com os dois líderes atuais deste mercado, Sony e Microsoft, e suas respectivas gerações de consoles com uma analise comparativa de suas cadeias de valor. A análise dos casos busca mostrar por que estas empresas entraram neste mercado, como tentaram utilizar suas core competences para obter sucesso em um mercado de forte economia de rede, marcado pelo surgimento freqüente de tecnologias de ruptura e novos entrantes, alta velocidade evolutiva do setor provocada pelos movimentos freqüentes de poder entre os elos da cadeia, em geral ao redor do fabricante do console e dos publishers dos jogos. Com base nesta análise, foram determinados os fatores críticos de sucesso da indústria até o momento e identificar os fatores críticos adicionais que estão surgindo para a última geração de consoles iniciada ao final de 2005, cuja competição tornou-se relevante ao final de 2006.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Identifica-se os fatores críticos na implementação de estratégias de negócios, as dificuldades e as barreiras quando da formulação da estratégia, na gestão de pessoas e no desenho dos processos para se alcançar as metas e os resultados planejados. Uma pesquisa de campo realizada dentro de um ambiente real de negócios permitiu identificar e avaliar a pertinência dos fatores críticos de implementação de estratégia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho identifica e analisa de forma exploratória os fatores críticos de sucesso para um banco atuando no mercado brasileiro de comércio exterior, através de entrevistas individuais e de pesquisa pela internet com clientes e funcionários do Banco Santander Banespa. A fundamentação teórica baseada na Gestão de Serviços e de Operações, no Marketing de Varejo e na Estratégia serviu de base para o levantamento dos possíveis recursos e competências que podem ser fonte de vantagem competitiva. Após esse levantamento baseado na teoria, segue-se uma etapa de pesquisa de campo formulada em duas partes, realizada entre janeiro e março de 2007. A primeira parte consistiu de entrevistas com uma amostra de pequeno tamanho e representada por funcionários e clientes do Banco Santander Banespa localizados em São Paulo, Rio de Janeiro e Curitiba. A segunda parte consistiu de pesquisa com clientes pessoa jurídica do Banco Santander Banespa, todos do segmento de middle-market, localizados em vários estados brasileiros. Durante as entrevistas individuais surgiu como provável fonte de vantagem competitiva o recurso “presença do banco em outros países”, que foi então incluído para investigação através da pesquisa realizada na segunda parte. Os resultados obtidos foram então analisados à luz do modelo VRIO, oriundo da estratégia da Visão Baseada em Recursos, ou RBV – Resource-based View. O resultado final mostrou que são considerados fatores críticos de sucesso para um banco atuando no mercado brasileiro de comércio exterior: flexibilidade e rapidez para customização de serviços e produtos de acordo com as necessidades do cliente; limite de crédito concedido; preço; flexibilidade, cordialidade, capacitação técnica e rapidez no atendimento prestado pelos gerentes; qualidade na entrega dos serviços e produtos; tecnologia. Tais recursos analisados através do modelo VRIO mostraram que o Banco Santander Banespa encontra-se em situação de paridade competitiva no mercado bancário de comércio exterior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foram investigados diferentes métodos de preparação de amostra para a determinação de níquel e vanádio em óleo cru usando a espectrometria de absorção atômica com forno de grafite (GF AAS). Investigou-se o uso de xileno como diluente, o qual foi inadequado devido à baixa estabilidade de níquel nas soluções e resultando na contaminação do equipamento. As soluções diluídas em isobutilmetilcetona apresentaram melhor estabilidade, mas não houve reprodutibilidade das medidas com os padrões orgânicos de níquel. Melhores resultados foram obtidos com emulsões óleo-em-água, usando Triton X-100 como surfactante. Também foi estudado o uso de padrões aquosos (inorgânicos) para o preparo das emulsões. Após o estabelecimento de curvas de pirólise para padrão e amostra de óleo cru, observou-se diferença no comportamento térmico do níquel na matriz de óleo cru. Foi então realizada uma investigação usando um espectrômetro de absorção atômica com fonte contínua de alta resolução (HR-CS AAS), equipamento com elevada capacidade de correção de fundo, e constatou-se que cerca de 50 % do analito é perdido em temperaturas abaixo de 400 ºC, enquanto que o restante é termicamente estável até pelo menos 1200 ºC. A fim de resolver o problema de perda de níquel volátil, foi investigado o uso de paládio como modificador químico. Através de curvas de pirólise com e sem paládio, observou-se que a mesma perda também ocorreu para o vanádio. Após a otimização da melhor quantidade de paládio, verificou-se que foi necessária uma quantidade de 20 µg de paládio para estabilização de níquel e vanádio. A determinação de níquel e vanádio total em amostras de óleo cru foi realizada usando-se paládio como modificador químico. A especiação destes elementos foi possível através da determinação das espécies estáveis, provavelmente compostos salinos não porfirínicos de níquel e vanádio, sem a adição de paládio, e a fração de compostos voláteis (provavelmente porfirinas de níquel e vanádio) foi calculada por diferença. Estabeleceram-se as figuras de mérito obtendo-se valores de massa característica de 19 e 33 pg e limite de detecção de 43 e 113 pg para níquel e vanádio, respectivamente. Esses resultados são compatíveis com dados reportados na literatura. A exatidão deste procedimento foi verificada pela análise dos materiais de referência certificados de metais traço em óleo residual (SRM 1634c) para níquel e vanádio e o petróleo (RM 8505) somente para vanádio e também por comparação com os resultados obtidos por HR-CS AAS para várias amostras de óleo cru. A aplicação do teste estatístico t-student aos resultados de níquel e vanádio total obtidos por GF AAS e HR-CS AAS mostrou que os mesmos não são significativamente diferentes a um nível de 95% de confiança.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo propor uma metodologia de análise que destaque os fatores críticos na definição de modelos estratégicos e organizacionais da área comercial de fabricantes de produtos alimentares que pretender utilizar o canal de distribuição varejista brasileiro após a forte concentração vivida no final dos anos 90. Para tanto fez-se um estudo do mercado supermercadista brasileiro destacando suas principais mudanças e a importância da efetiva administração dos canais. Como conclusão tem-se que empresas que vislumbrem adotar modelos de excelência operacional com adição de valor ao consumidor final, depararão com a complexidade do gerenciamento do relacionamento de seus clientes, principalmente no que tange aos clientes chaves que a partir de 1999 ganham individualmente dimensão e importância equivalente a canais de distribuição anteriormente considerados de vital importância para distribuição de produtos. Atingir a excelência operacional tende a passar pela integração estratégica, organizacional, logística, tecnológica e mercadológica entre fornecedor e clientes - ou seja, passa por uma proposta de valor. Atender as exigências atuais e futuras dos clientes, principalmente dos grandes players, será um verdadeiro desafio para os profissionais de administração já que vultuosas somas de recursos financeiros, novos formatos organizacionais e novas habilidades dos profissionais das áreas de marketing e comercial devem surgir nos próximos anos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa as transações entre empresa fabricante de software e empresa usuária de software sob a ótica da empresa fabricante. A abordagem da transação leva em consideração os seguintes fatores: estrutura de governança transacional, recursos humanos necessários à empresa fabricante e qualidade na transação buscada pela empresa fabricante. O modelo ajuda a explicar a dinâmica da transação e se propõe a auxiliar agentes a decidir e negociar temas polêmicos como tipos de software envolvidos e respectivas licenças, intensidade de participação da empresa usuária no processo de elaboração e parametrização do software, titularidade e grau de especificidade dos investimentos.