18 resultados para Delphi, Metodo

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As últimas décadas têm apresentado significativas mudanças no cenário intercapitalista mundial. Especialmente após a popularização internacional das filosofias e técnicas japonesas de gestão, partindo do Sistema Toyota de Produção, muitos estudos e metodologias têm sido desenvolvidos na busca da racionalização dos processos produtivos. Basicamente estes estudos foram centrados nas características da indústria de forma, vale dizer, bens de capital e bens duráveis de consumo. Neste sentido, surge um natural questionamento sobre a aplicabilidade destes conceitos e técnicas a outros tipos de processos produtivos, especialmente no caso da indústria de propriedade contínua, muitas vezes identifica da como indústria de transformação (incluindo refino de petróleo, petroquímica, papel e celulose, energia elétrica e outras), pelas características específicas apresentadas pela mesma. Assim, a presente dissertação analisa diferentes metodologias desenvolvidas para a indústria de forma, avaliando a possibilidade de aplicação de seus conceitos à indústria de propriedade contínua. Posteriormente, desenvolve um modelo analítico mais apropriado à realidade e característica deste tipo de indústria. A seguir, baseado nas conclusões do modelo analítico desenvolvido, estabelece os conceitos básicos de um modelo de gestão dos processos produtivos da indústria de propriedade contínua. Finalizando, são apresentadas as conclusões relativas à aplicação das diferentes metodologias, e em especial dos modelos desenvolvidos, à indústria de propriedade de produção contínua.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho são desenvolvidos métodos numéricos para inversão da transformada de Laplace, fazendo-se uso de polinômios trigonométricos e de Laguerre. Sua utilização é ilustrada num problema de fronteira móvel da área de engenharia nuclear, através do algoritmo computacional ALG-619. Uma revisão dos aspectos analíticos básicos da transformada de Laplace e sua utilização na resolução de equações diferenciais parciais é apresentada de maneira suscinta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Visa a presente dissertação de mestrado estabelecer um sistema de contabilidade de custos integrado e coordenado com a contabilidade financeira para a Industria de Oleos Vegetais e que, encarando este sistema sob um duplo enfoque, contabil e administrativo, permita a conciliação destes dois enfoques ate certo ponto contrastantes. A construção de um sistema de custo requer um completo entendimento: (1) dos processos de produção; (2) dos objetivos perseguidos pelo sistema de custos e (3) da estrutura organizacional da empresa. Quanto às caracteristicas especiais da industria de óleos de soja, no Rio Grande do Sul, no que se refere a seu processo de estas são, basicamente: (1) produção continua em massa; (2) obteção de co-produtos e de subprodutos e (3) industrialização subdividida em fases. Destarte, o custo de industrialização de sementes oleaginosas divide-se basicamente em duas fases importantes: (1) uma, de custos conjuntos, comuns a todos os produtos resultantes - o circuito do grão - que abrange a ensilagem, a preparação dos grãos e a extração. (2) outra, de custos isolados - que abrange os circuitos óleo (miscela) e do farelo (polpa), bem como o refino e a embalagem. Quanto aos objetivos perseguidos com a introdução de um sistema de custos na Industria de Óleos Vegetais, requerem-se dados de custos basicamente para três finalidades: (1) custos para estoques: avaliação de estoques para fins de inventário; (2) custos para controle: avaliação da eficiência para fins de controle; (3) custos para decisões: estabelecimento de parâmetros fins de tomada de decisões. Quanto à estrutura organizacional, deverá, na elaboração de um sistema de custeio, ser observada a constituição da empresa em termos de departamentos e/ou de centros de custos, caracterizando-os como sendo auxiliares, de produção, de vendas, distribuição, ou ainda de administração. Dadas as caracteristicas da industria, os objetivos perseguidos e a estrutura organizacional básica constatada, concebeu-se um sistema de custo, integrado e coordenado com o restante da escrituração, com as se guintes caracteristicas: (1) Quanto à concepção formal do sistema: Sistema Dualista com escrituração em Partidas dobradas mediante Registros Globais; (2) Quanto à concepção essencial do sistema: Custeio Parcial de Absorção, com emprego de custos gerais indiretos setorialmente diferenciados, absorvidos com base na capacidade normal; (3) Quanto ao metodo de alocação dos custos conjuntos aos coprodutos: Abordagem do Valor Relativo de Vendas (calculado) no Ponto de Separação, estabelecido com base em cálculo retroativo partindo dos valores relativos de vendas dos co-produtos no ponto de vendas e trabalhando de trás para frente em direção aos valores relativos de vendas aproximados (calculados) no ponto de separação e deste ainda subtraindo o credito total conjunto e o custo administrativo que foi atribuido aos co-produtos por rateio; (4) Quanto ao método de alocação das receitas com subprodutos: subtração da receita obtida com a venda dos subprodutos dos custos da fase em que os mesmos são obtidos. É sistema dualista, porque propõe a existência de "duas" contabilidades - a contabilidade externa ou financeira e a contabilidade interna ou de custos, sendo, todavia, complementares entre si. Sua escrituração se faz em partidas dobradas, mediante registros globais, porque é contabilidade de custos é conduzida atraves de fichas, mapas, planilhas e somente o resumo final do movimento de valores e contabilizado mensalmente mediante lançamentos globais. É um sistema de custeio parcial de absorção, porque: (1) atende ao que estabelece o Cecreto-Lei n9 1398, de 26/12/77, em seu art. 139 , a respeito da avaliaçâo dos estoques, para fins de inventários; (2) permite o uso de orçamentos flexiveis para fins de controle e com isso a adaptação do sistema de custeio ao nivel de produção (ou de atividade) esperado durante o periodo de produção; (3) permite tanto determinar o custo dos produtos (para fins de inventário), como tambem a contribuição que os mesmos trazem ao lucro empresarial e à receita total (para fins decisoriais) ; e ainda (4) permite, se separados os custos indiretos em fixos e variáveis, no Mapa de Localização de Custos, o cálculo do ponto de equilibrio de alternativas de resultado a diversos niveis de produção, bem como ainda de alternativas de limites inferiores de preço de venda a diversos niveis de produção, para fins decisoriais. Para fins contábeis e para a integração custo - contabilidade são usados valores histéricos, para fins de controle, valores orçados, estimados e para fins de decisão, valores de reposição ou estimados (projetados). o sistema de custos baseia-se, ainda, para sua elaboração, em duas peças-chave, que são: (1) - O Mapa de Lqcalização de Custos, no qual todos os custos indiretos são alocados por especies de custos e por centros de custos; (2) - O Boletim de Apropriação de Custos, no qual e realizado o cálculo do custo unitário dos co-produtos, para fins de inventário. Para que aconteça a total integração da contabilidade de custo com a contabilidade financeira, esta mantém contas de produção e de estoques, fase por fase, nas quais são lançados, por intermedio de registros globais, os resultados do cálculo de custos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento e manutenção de software fazem parte de um processo intrinsecamente difícil e que consome tempo e custos, principalmente quando o sistema consiste de milhares de linhas de código. Por isso, sistemas de visualização de software objetivam prover mecanismos para construir representações visuais de informações sobre programas e sistemas, através das quais o programador pode analisar e compreender características de sua estrutura e funcionamento em um maior nível de abstração do que o código fonte. Assim, ferramentas visuais de software que suportam as tarefas de desenvolvimento, depuração, manutenção e reutilização tornam-se mais necessárias pelo fato de ajudarem a reduzir a complexidade inerente do processo de compreensão. Esse trabalho tem como objetivo principal o desenvolvimento de um visualizador que exiba as informações existentes nos programas de forma mais rápida e legível, evitando que o programador/analista tenha que percorrer as linhas de código. O texto inicialmente situa a área de visualização de informações, abordando a área de visualização de software, uma vez que a visualização de software é assim chamada por tratar da visualização de informações que são extraídas de programas. Em seguida, é apresentado um estudo de caso baseado no desenvolvimento dos sistemas da empresa Benfare Informática, no qual caracteriza-se a necessidade de ferramentas que auxiliem a compreensão de programas, com o objetivo de otimizar as operações de manutenção e desenvolvimento de programas. O restante do trabalho trata do sistema VisProgress que foi um protótipo desenvolvido como ferramenta de apoio para a equipe de desenvolvimento da empresa e como forma de avaliar o uso de técnicas de visualização em tal situação. A ferramenta desenvolvida é um visualizador de informações que percorre programas escritos em Progress, ferramenta de desenvolvimento utilizada pela empresa, e extrai as informações encontradas nos programas. A visualização é dividida em três partes. A primeira permite a visualização de informações textuais extraídas diretamente do código fonte dos programas que compõem os sistemas, a segunda faz a visualização de um grafo que representa a chamada de programas, e a terceira e última faz a visualização também de um grafo, porém representando o compartilhamento de variáveis entre os programas. A obtenção dos grafos foi construída em Delphi, porém a visualização gráfica é feita através da ferramenta Dotty, ferramenta específica para visualização de grafos. Após a descrição do protótipo implementado, são apresentados os resultados obtidos com a avaliação da ferramenta feita nas empresas Benfare Informática e Dzset Soluções e Sistemas para Computação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo da distribuição da extinção na direção da Pequena Nuvem de Magalhães (PNM) é feito atravéss da contagem de galáxias de ”fundo”, e espectroscopicamente pela comparação de espectros nucleares de uma amostra das mesmas com os de galáxias de referência de similar população estelar. O método de contagens é baseado em um novo catálogo realizado no presente trabalho, contendo 3037 galáxias estendendo-se até a magnitude limite B¼ 20 em 6 placas do ESO/SERC na região da PNM e seus arredores. O método espectroscópico foi aplicado a uma amostra de 16 galáxias na mesma região, assim como numa outra de 27 galáxias na direção da Grande Nuvem de Magalhães, para comparação. A deficiência de galáxias indicada pelo método de contagens sugere E(B-V)=0.35 nas partes centrais da PNM, e E(B-V)=0.15 a 6º do centro. Por outro lado o método espectroscópico indica que a PNM é basicamente transparente. Sugerem-se as seguintes explicações para esta diferença: (i) a deficiência de galáxias nas regiões centrais detectadas pelo método de contagens é signifivativamente afetada pela alta concentração de estrelas e objetos extendidos pertencentes à PNM; (ii) a amostra espectroscópica conteria tipicamente galáxias em zonas menos avermelhadas, o que indicaria que a absorção ocorre em nuvens de poeira com uma distribuição preferencialmente discreta. A aplicação do m´etodo espectroscópico na GNM também sugere a presença de nuvens de poeira discretas nas suas regiões centrais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa teve como objetivo investigar as opiniões de violinistas egressos do Centro Suzuki de Santa Maria sobre o método Suzuki, descrevendo as influências do método na vida pessoal desses instrumentistas, examinando as contribuições do ensino através do método e analisando algumas críticas feitas ao método. Neste estudo empreguei o método de survey. Através dele foram selecionados quatorze ex-alunos que começaram a estudar violino pelo método Suzuki com a professora irmã Wilfried. As informações foram coletadas por meio de questionário enviado eletronicamente. Os dados foram confrontados com a literatura sobre o método Suzuki apresentada neste trabalho através de textos do próprio Suzuki (1994) e de outros autores, como Penna (1998a, 1998b), Gerling (1989), Mark (1986), Priest (1989), Hargreaves (1986), entre outros. Entre os resultados desta investigação, pude constatar uma forte concordância com o método por parte dos investigados. Além disso, a maioria deles considera o método Suzuki como o melhor método para o ensino da música e do instrumento, principalmente no que se refere ao ensino para crianças e à sociabilidade que se dá através do tocar em grupo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesse trabalho apresentamos algoritmos adaptativos do M´etodo do Res´ıduo M´ınimo Generalizado (GMRES) [Saad e Schultz, 1986], um m´etodo iterativo para resolver sistemas de equa¸c˜oes lineares com matrizes n˜ao sim´etricas e esparsas, o qual baseia-se nos m´etodos de proje¸c˜ao ortogonal sobre um subespa¸co de Krylov. O GMRES apresenta uma vers˜ao reinicializada, denotada por GMRES(m), tamb´em proposta por [Saad e Schultz, 1986], com o intuito de permitir a utiliza¸c˜ao do m´etodo para resolver grandes sistemas de n equa¸c˜oes, sendo n a dimens˜ao da matriz dos coeficientes do sistema, j´a que a vers˜ao n˜ao-reinicializada (“Full-GMRES”) apresenta um gasto de mem´oria proporcional a n2 e de n´umero de opera¸c˜oes de ponto-flutuante proporcional a n3, no pior caso. No entanto, escolher um valor apropriado para m ´e dif´ıcil, sendo m a dimens˜ao da base do subespa¸co de Krylov, visto que dependendo do valor do m podemos obter a estagna¸c˜ao ou uma r´apida convergˆencia. Dessa forma, nesse trabalho, acrescentamos ao GMRES(m) e algumas de suas variantes um crit´erio que tem por objetivo escolher, adequadamente, a dimens˜ao, m da base do subespa¸co de Krylov para o problema o qual deseja-se resolver, visando assim uma mais r´apida, e poss´ıvel, convergˆencia. Aproximadamente duas centenas de experimentos foram realizados utilizando as matrizes da Cole¸c˜ao Harwell-Boeing [MCSD/ITL/NIST, 2003], que foram utilizados para mostrar o comportamento dos algoritmos adaptativos. Foram obtidos resultados muito bons; isso poder´a ser constatado atrav´es da an´alise das tabelas e tamb´em da observa ¸c˜ao dos gr´aficos expostos ao longo desse trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A população dos municípios do litoral norte do Rio Grande do Sul vem crescendo nas últimas duas décadas (IBGE, 2004). Em conseqüência, disso, começaram a surgir diversos problemas ambientais nessa região. Com o objetivo de avaliar o impacto ambiental produzido por esse crescimento foi criado, de forma inédita, um método para aferir o Índice de Qualidade de Praia (IQP), constituído por cinco indicadores, são eles: limites de segurança de praia, plano de manejo de dunas, balneabilidade da água, qualidade sanitária da areia e adequação da disposição final dos resíduos sólidos. Esse método foi testado na zona de balneário do município de Capão da Canoa, no período de dezembro de 2001 a março de 2002. Para tanto, foram atribuídos pesos para cada indicador por parte dos atores – técnicos, turistas e residentes – por meio do método de pesquisa de opinião-técnica Delphi. O somatório do produto do peso pela nota de cada indicador (0 ou 1), resultou numa classificação da praia do tipo C. Nessa categoria a balneabilidade é imprópria para banho. Não existe programa de limites de segurança de praia. Já a qualidade da areia é satisfatória, há área adequada para o depósito dos resíduos sólidos e há plano de manejo de dunas em funcionamento. De acordo com esse resultado, pode-se sugerir uma agenda de ações mitigadoras, ordenadas por prioridades, tendo em vista a gestão ambiental. Essa agenda e a avaliação confirmada com base no IQP pode, a longo prazo, contribuir para melhorar a qualidade de vida dos freqüentadores das praias, diminuir a degradação do ambiente costeiro e medir as melhorias implementadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.