940 resultados para cerâmicos tradicionais
Resumo:
Esta dissertação aborda, através de um Estudo de Caso, a problemática da implantação e monitoramento de estratégias em organizações do tipo “sem fins lucrativos” intensivas em conhecimento. Em particular, são analisados métodos abrangentes de avaliação de desempenho que consistem em um conjunto de medidores, englobando diversas perspectivas de avaliação, com grande impacto na gestão corporativa, representando um avanço em relação aos tradicionais modelos baseados somente em indicadores financeiros. O Estudo identifica as estratégias do SEBRAE/RS e, a partir das análises, propõe uma nova sistemática de avaliação de desempenho, baseada no Balanced Scorecard de Kaplan e Norton, proporcionando melhor visualização, tradução, articulação, comunicação e motivação à realização das estratégias, contemplando as variáveis que são críticas para alcançar a missão estabelecida.
Resumo:
O objetivo desta dissertação é a elaboração de uma técnica da aplicação do formalismo de Autômatos Finitos com Saída (Máquina de Mealy e Máquina de Moore) como um modelo estrutural para a organização de hiperdocumentos instrucionais, em destacar especial, Avaliação e Exercício. Esse objetivo é motivado pela organização e agilização do processo de avaliação proporcionado ao professor e ao aluno. Existem diferentes técnicas de ensino utilizadas na Internet, algumas dessas continuam sendo projetadas com o uso de metodologias tradicionais de desenvolvimento, outras têm a capacidade de modelar de forma integrada e consistente alguns aspectos necessários para uma aplicação WEB. Para alcançar o objetivo proposto, foram realizadas pesquisas nas várias áreas abrangidas pelo tema em evidência, tanto relativo ao processo tradicional (aplicação de prova utilizando metodologia tradicional), como o desenvolvimento de software mediado por computador e uso da Internet em si. A modelagem de desenvolvimento para Internet deve integrar características de técnicas de projeto de sistemas de hipermídia devido à natureza hipertextual da Internet. O uso de hiperdocumento como autômatos com saída está na forma básica de representação de hipertexto, em que cada fragmento de informação é associado a um nodo ou a um link (estado/transições) do grafo. Sendo assim, os arcos direcionados representam relacionamentos entre os nodos ou links, ou seja, uma passagem do nodo origem para o nodo destino. As n-uplas dos autômatos apresentam uma correspondência as estruturas de hiperdocumentos na WEB, seu estado/transição inicial corresponde a sua primeira página e suas transições definidas na função programa, funcionam como ligações lógicas, quando selecionadas durante a navegação do hipertexto. Entretanto, faz-se necessário um levantamento dos modelos de hipertextos e das ferramentas de implementação disponíveis para a Internet, a fim de que seja capaz de suportar as peculiaridades do ambiente. Tudo isso deve ser integrado preferencialmente em um paradigma de desenvolvimento amplamente aceito, para que os projetistas não tenham muitas dificuldades em assimilar os conceitos propostos. A proposta apresentada nesta dissertação, batizada de Hyper-Automaton (hipertexto e autômato), consiste na integração de um Curso na WEB, utilizando formalismo de Autômatos Finitos com Saída para a modelagem dos conceitos necessários e definição das fases adequadas para completar a especificação de Sistema Exercício e Avaliação, bem como a especificação da Geração Automática dos Exercícios e Avaliações baseadas em autômatos para a WEB. Os modelos criados abrangem conceitos de Máquina de Mealy, Máquina de Moore e Aplicações de Hiperdocumentos e Ferramentas de Programação para Internet, os mesmos já testados em caso real. Os parâmetros apurados, nos testes, serviram a uma seqüência de etapas importantes para modelar e complementar a especificação do sistema projetado. Com os parâmetros e etapas de modelagem, a metodologia Hyper-Automaton consegue integrar, de forma consistente, as vantagens de várias técnicas específicas de modelagem de documentos e sistemas de hipermídia. Essas vantagens, aliadas ao suporte às ferramentas de desenvolvimento para Internet, garantem que a metodologia fique adequada para a modelagem de Sistemas com aplicação de métodos de autômatos para exercícios e avaliação na WEB.
Resumo:
Em decorrência do cada vez maior acirramento da concorrência e conseqüente diminuição das margens de lucro, as empresas vêem-se obrigadas a revisar e aprimorar seus sistemas de custeio. Dentro deste contexto, o trabalho inicia pela identificação de um custo referencial, definido a partir dos preços regularmente praticados pelo mercado. Em seguida, apresenta uma base para conhecimento de custos e analisa os métodos de custeio, tanto os tradicionais quanto os modernos (métodos do custeio baseado em atividades - Activity-Based Costing (ABC), da Unidade de Esforço da Produção (UEP) e um método de custeio combinado). O trabalho conclui com um estudo de caso, fazendo uma aplicação dos métodos estudados numa indústria do setor farmacêutico, ao final do qual, faz comparações dos métodos de custeio.
Resumo:
O grande desenvolvimento da industria eletrônica, aliado ao aumento do consumo de bens pela população, gera um número cada vez maior de equipamentos defeituosos e obsoletos, entre eles as Placas de Circuito Impresso (PCI), as quais precisam ser dispostas. A sucata destas placas representa uma matéria prima interessante, pois contém metais e ligas metálicas, o que torna sua reciclagem bastante atraente. Como linha geral, as PCI possuem 49% de materiais cerâmicos, vidros e óxidos, 19% de plásticos, 4% de bromo e 28% de metais. A composição real depende da origem do circuito impresso, assim como do tipo e idade do equipamento. O uso do Processamento Mecânico na reciclagem desse resíduo é uma alternativa na recuperação dos metais presentes e também uma maneira de separar seus vários componentes, permitindo assim dispor adequadamente este resíduo. Neste trabalho as PCI passaram por várias etapas de processamento mecânico. Primeiramente foram moídas abaixo de 1mm e após foram classificadas, caracterizadas e diferentes frações foram separadas por densidade. A primeira classificação foi feita por granulometria e gerou três frações diferentes: uma menor que 0,25mm, outra entre 0,25 e 0,50mm e outra entre 0,50 e 1,0mm. Após foi feita uma separação por densidade obtendo-se uma fração rica em metais, em especial o cobre, e outra fração leve composta por polímeros e cerâmicos As frações classificadas por granulometria e as frações leves originadas da separação por densidade foram lixiviadas para caracterizar o resíduo a respeito da sua toxicidade antes e depois do processo. O uso do processamento mecânico mostrou-se muito eficiente na recuperação dos metais, pois foi possível recuperar cerca de 80% dos metais presentes, com destaque para o cobre, que representa quase 75% da fração metálica. Através da lixiviação foi determinado que as PCI deveriam ser classificadas como resíduos perigosos, pois apresentam uma concentração de chumbo bem acima do permitido. Após a separação por densidade foi feito novamente ensaio de lixiviação e embora a concentração de Chumbo na fração leve tenha diminuido significativamente ela ainda permaneceu acima dos limites estabelecidos pelas normas brasileiras.
Resumo:
A divisão do processo de planejamento e controle da produção (PCP) em diferentes níveis hierárquicos é um dos mecanismos básicos para lidar com a incerteza. Por outro lado, a falta de integração entre estes níveis é apontada como uma dos obstáculos mais importantes à eficácia deste processo, uma vez que dificulta que as decisões tomadas nos diferentes níveis gerenciais sejam consistentes entre si. Este problema é particularmente importante em empreendimentos de construção, os quais, em função de sua complexidade e da incerteza envolvida, em geral requerem freqüentes modificações nos planos, podendo estas ser consideravelmente trabalhosas. O objetivo geral do presente trabalho consiste em propor diretrizes para a interligação do processo de planejamento e controle nos níveis de longo, médio e curto prazo, através da utilização de pacotes computacionais tradicionais, assim como contribuir para a consolidação e refinamento do modelo de PCP proposto por Formoso et al. (1999). O trabalho realizado foi dividido em três grandes etapas. A primeira delas compreendeu a realização de uma pesquisa bibliográfica. A segunda etapa consistiu no desenvolvimento de dois estudos de caso, realizados em empresas de construção do Estado da Bahia, uma delas atuante nos mercados de obras públicas e a outra em incorporações imobiliárias para a classe média-alta. Por fim, na terceira etapa foram analisados os resultados e propostas as diretrizes para a interligação dos diferentes níveis do PCP Entre as conclusões, pode-se destacar que a eficácia dos planos produzidos em pacotes computacionais depende fortemente da existência de um plano de ataque da obra, o qual deve ser discutido com a gerência da produção e explicitado graficamente, de forma a aumentar a transparência de processos. Quando o plano de longo prazo não é elaborado adequadamente, levando em conta as reais necessidades da gerência de produção, o esforço despendido na realização de alterações tende a ser muito grande, dificultando a utilização deste plano para controle em tempo real. O estudo também sugere um conjunto de indicadores que permitem avaliar o cumprimento de prazo e a aderência entre planos de diferentes níveis gerenciais. Estes indicadores são obtidos com relativa facilidade, a partir da utilização do pacote computacional MSProject. Finalmente, o estudo oferece algumas contribuições relativas a critérios para a definição de pacotes de trabalho, à medida que os planos necessitam serem detalhados nos níveis de médio e curto prazo.
Resumo:
Nesta dissertação conceitualiza-se Economia do Meio Ambiente e destaca-se a importância de seu estudo e de suas aplicações. São apresentados os conceitos de externalidade, bens públicos, ótimo de Pareto, taxas Pigouvianas, o teorema de Coase, a tragédia dos comuns e comportamento free rider. Com base nesses conceitos, são focalizados as políticas públicas tradicionais e os mecanismos de mercado, buscando encontrar alternativas que conciliem a preservação do meio ambiente com os objetivos de eficiência econômica da sociedade. Finalmente, é analisado, através de um estudo de caso, o interesse e as condições da iniciativa privada em se adaptar tecnologicamente às regras ambientais definidas pelas políticas públicas.
Resumo:
Este trabalho tem como objetivo principal demonstrar uma nova metodologia que utilizará um motor automotivo adaptado a um módulo experimental onde será possível realizar-se medições da intensidade de detonação, e a partir desses valores determinar a octanagem dos combustíveis ensaiados, sendo este um método que oferece uma nova alternativa de baixo custo se comparado aos métodos tradicionais que utilizam motores CFR (Co-operative Fuel Research) fabricados pela Waukesha para determinação da octanagem dos combustíveis. O módulo experimental é composto por um motor automotivo acoplado a um freio eletromagnético e por sensores instalados em pontos estratégicos do motor que informam, em tempo real, os valores dos parâmetros de funcionamento do mesmo. A octanagem, para ser medida, a exemplo do que ocorre nos motores CFR, depende da ocorrência de detonação que é provocada durante a realização dos ensaios para que o valor de sua intensidade e o valor dos demais parâmetros de funcionamento do motor neste instante possam ser registrados. Para que pudesse ocorrer detonação em baixa rotação fez-se necessário à alteração do volume da câmera de combustão do motor utilizado, a fim de aumentar sua taxa de compressão e favorecer o aparecimento do fenômeno Durante a realização dos ensaios, no módulo experimental, utilizaram-se dois computadores para monitorar os parâmetros de funcionamento do motor e armazenar as informações adquiridas a partir da placa de aquisição de dados que transforma os sinais analógicos dos sensores em informações digitais, as quais serão utilizadas nos cálculos e na construção de gráficos para análise dos resultados do experimento. Após realizar-se os ensaios utilizando-se combustíveis de referência com diferentes valores de octanagem, foi possível determinar a exatidão dos resultados obtidos pelo método proposto comparando-os com os valores obtidos no motor CFR, sendo que o módulo experimental permitiu medir os valores de octanagens com uma incerteza de ± 1,66 octanas em um intervalo de confiança de 95,45%.
Resumo:
Este trabalho aplica a Teoria de Autômatos na proposição de uma nova alternativa para prover animações 2D na World Wide Web, verificando as contribuições alcançadas para as questões relacionadas ao espaço de armazenamento, reutilização e manutenção do conteúdo e suporte à recuperação de informação. Para este objetivo, é proposto o modelo AGA (Animação Gráfica baseada em Autômatos Finitos), o qual especifica a animação a partir de uma estrutura baseada em autômatos finitos com saída. Esse modelo é definido de tal forma que os mesmos autômatos utilizados na especificação, ao serem simulados, realizam o controle da animação durante a apresentação. O modelo AGA apresenta características que favorecem a redução do espaço de armazenamento da animação, provêem suporte à recuperação de informação, colaboram com a reutilização e manutenção do conteúdo das animações. Uma implementação multiplataforma foi desenvolvida para apresentar animações especificadas nesse modelo na Web. Essa implementação proporciona a elaboração de consultas ao conteúdo da animação, além dos recursos tradicionais de reprodução. A partir dessa implementação, o AGA foi submetido a um estudo de caso prático, onde os resultados obtidos são comparados com o produzidos pelo GIF (Graphic Interchange Format). Esse comparativo demonstra que o AGA possui várias vantagens em relação à estrutura adotada pelo GIF. O modelo AGA é estendido utilizando autômatos temporizados para prover restrições temporais às especificações e também ampliar as funcionalidades de interação com o observador da animação. Essa extensão, chamada de modelo AGA-S (Animação Gráfica baseada em Autômatos Temporizados Sincronizados), é definida a partir do autômato temporizado proposto por Alur e Dill. Para esse modelo, é definida uma operação formal para sincronização dos componentes da animação e adicionada uma estrutura baseada em autômatos finitos para controlar a interação do observador com a animação.
Resumo:
Esta dissertação tem por finalidade principal verificar a viabilidade de implantação do método de controle integrado de atributos da qualidade. O objetivo secundário baseia-se em uma revisão na bibliografia do controle estatístico do processo, em especial as cartas de controle tradicionais e a carta de controle integrado do processo. A carta de controle integrado do processo é aplicável em processos contínuos e intermitentes de manufatura onde existem vários atributos independentes a serem monitorados. A partir de um posto de trabalho definido em uma linha de produção, o monitoramento, visando o controle e a garantia da qualidade, é realizado através de uma única carta de controle que engloba todas as características de qualidade pertinentes ao processo. Utilizando-se de um gráfico de Pareto, obtém-se a hierarquização das características de qualidade, podendo-se atuar sobre aquelas que mais contribuem para o percentual de defeituosos. Desta forma, é possível diagnosticar e solucionar problemas de qualidade tendo como alvo a melhoria contínua do processo. A principal vantagem desta carta está na simplicidade do controle integrado por apresentar em uma única carta uma visão geral da condição da qualidade. A demonstração da aplicabilidade da carta de controle integrado do processo é feita através do estudo de caso em uma empresa de bebidas alcoólicas O processo estudado é a rotulagem de duas bebidas alcoólicas que apresentam 10 características de qualidades, e destas se desdobram 29 tipos de defeitos. Todos estes defeitos são monitorados por uma carta de controle integrado do processo. Em um dos processos, se verifica através do gráfico de Pareto que dos 29 tipos de defeitos, 2 são responsáveis pela instabilidade do mesmo. Pode-se, então, atuar sobre estes defeitos e, portanto, melhorar este processo. Sempre que houver uma causa especial anômala ao processo, a carta indicará sua presença, e dará uma base sólida para a tomada de decisão de uma ação corretiva.
Resumo:
Internet. Desde a versão 2.0 do HTML, entretanto, pouco foi melhorado no modelo de formulários proposto. Ao mesmo tempo, as necessidades dos desenvolvedores e os requisitos dos usuários cresceram dramaticamente. O W3C apontou uma resposta para as necessidades levantadas, o padrão XForms. O padrão XForms visa substituir o modelo de formulários definido no HTML por um modelo que separa o propósito da apresentação, adicionando, desta forma, a característica de independência de plataforma. A proposta deste trabalho é analisar o padrão XForms em relação à utilização de formulários HTML tradicionais, e à outras soluções existentes para automação de formulários na Internet, utilizando para isto uma aplicação piloto que procure utilizar alguns dos principais recursos disponíveis no padrão. Os pontos fortes, pontos fracos, dificuldades e lições aprendidas capturadas durante o desenvolvimento da aplicação piloto formam uma base de conhecimento apresentada neste trabalho.
Resumo:
O lançamento de DRs (Recibos de Depósitos) por empresas brasileiras é um mecanismo que possibilita às empresas terem acesso a mercados de capitais maiores e mais líquidos, podendo servir como um instrumento para o aumento de suas visibilidades no exterior e como um possível redutor de seus custos de capital. Esta pesquisa verifica os reflexos ocorridos nas ações das empresas brasileiras que lançaram mão deste instrumento no que tange a suas valorizações de mercado, suas volatilidades e suas performances ajustadas ao risco. De uma forma geral, apesar de pouco significativos estatisticamente, os resultados encontrados para as empresas brasileiras parecem ser condizentes com a hipótese de que a negociação internacional dos papéis dessas companhias ajudam a reduzir os efeitos da segmentação de mercado em suas ações, estando associados a ajustes para cima em seus preços, e para baixo, em seus retornos esperados e em suas volatilidades, para todos os tipos de DRs brasileiros negociados no mercado norte-americano, à exceção dos DRs de nível III que, de uma forma não significativa, parecem se comportar como se fossem emissões sazonais de capitais tradicionais (seasoned equity offerings).
Resumo:
Este trabalho trata do suporte à interação simultânea de mais de um usuário, sobre um mesmo objeto, em Ambientes Virtuais Colaborativos. Este suporte é obtido através do conceito de Metáfora Colaborativa e da arquitetura que materializa este conceito. Primeiramente, abordam-se os aspectos referentes às formas de interação usadas em ambientes virtuais imersivos monousuários. São apresentadas algumas técnicas interativas consideradas relevantes ao desenvolvimento do trabalho. No que diz respeito aos Ambientes Virtuais Colaborativos propriamente ditos apresentam-se suas principais características incluindo as semelhanças com os ambientes tradicionais de suporte computadorizado ao trabalho cooperativo. São abordados tanto aspectos referentes às facilidades providas por estes ambientes, quanto ao seu projeto e arquitetura. As principais abordagens existentes para suportar a interação entre usuários em ambientes virtuais colaborativos são apresentadas e é feita uma análise da execução de tarefas colaborativas em ambientes imersivos apontando-se as principais dificuldades existentes nos sistemas atuais. A partir deste embasamento, faz-se o desenvolvimento da chamada Metáfora Colaborativa, que se constitui em um conjunto de regras que permitem combinar técnicas interativas comumente usadas na interação individual em ambientes virtuais imersivos. Esta combinação é baseada na definição de quais graus de liberdade cada usuário irá controlar durante a manipulação simultânea de um objeto. Para possibilitar a combinação das técnicas individuais na implementação de ambientes virtuais colaborativos, foi definida uma arquitetura que prevê sistemas de controle local sobre cada ambiente e a combinação dos comandos aplicados sobre os objetos. Com o objetivo de avaliar a Metáfora Colaborativa, foram modeladas e implementadas diversas técnicas de interação colaborativa e sua eficiência foi aferida através de tarefas. Foi definido um protocolo de testes aplicado a trinta duplas de usuários, comparando seu desempenho individual e colaborativo na execução das tarefas.
Resumo:
No imaginário social, político e até acadêmico no Rio Grande do Sul persiste a idéia que a estrutura fundiária do Estado estaria assentada na polarização entre “minifúndios” e “latifúndios”. Conforme esta idéia o Estado do Rio Grande do Sul estaria dividido em duas partes, onde a “Metade Sul” estariam assentados os latifúndios e a “Metade Norte” os minifúndios. Neste estudo buscou-se observar que a estratificação social e econômica que se verifica na estrutura agrária gaúcha não decorre, imediatamente, da distribuição fundiária, ou seja, há que produzir interpretações muito mais complexas sobre a estrutura social no campo do que aquela que opera com a idéia que separa a sociedade rural gaúcha em dois grupos de proprietários: pequenos ou grandes, minifúndios ou latifúndios. Neste sentido, o objetivo deste estudo foi aprofundar os conhecimentos sobre a realidade de agricultores que pertencem a Metade Sul do Estado, que é pouco conhecida, e não corresponde ao contexto que se formou sobre esta região do estado. O estudo enfocou agricultores do município de Canguçu-RS que tenham a pecuária bovina de corte como a base de seus sistemas de produção, e que, contudo, utilizam-se principalmente da mão-de-obra familiar na propriedade. Em função destes fatores, estes agricultores foram denominamos como “pecuaristas familiares”. A partir do uso do referencial teórico e metodológico baseado no enfoque sistêmico, o presente trabalho diagnosticou e analisou os diferentes sistemas de produção implementados pelos “pecuaristas familiares” do município de Canguçu-RS Desta forma foi possível identificar três “tipos” de “pecuaristas familiares”, e três estudos de caso de agricultores que também implementam a “pecuária familiar”. O primeiro tipo identificado é formado por agricultores que, na sua maioria, são herdeiros dos estancieiros da região que gradualmente tiveram suas áreas produtivas reduzidas, fato que ocorreu através da partilha da propriedade pelos herdeiros; normalmente são aposentados e além da criação de gado de corte extensiva também cultivam pequenas áreas de milho e feijão, este tipo de agricultor foi denominado como “pecuarista familiar tradicional”. O segundo tipo identificado é formado na sua maioria por descendentes de peões e agregados que trabalhavam nas estâncias. Possuem pequenas propriedades, mas, por serem mais jovens, e possuírem maior força de trabalho que os “pecuaristas familiares tradicionais”, implementam diversos cultivos em suas propriedades além de desenvolver alguma atividade não agrícola, como, por exemplo, o comércio (venda na localidade). Por este fato, são denominados como sendo “pecuaristas familiares pluriativos”. O terceiro tipo é formado por criadores de gado de corte, também de forma extensiva, mas que estão mais inseridos no mercado de carne, pois comercializam o gado diretamente com os frigoríficos ou para intermediários em detrimento deste fato denomina-se este tipo de agricultor como sendo um “pecuarista familiar comercial”. Estes agricultores possuem realidades diferentes, mas, utilizam sistemas de produção semelhantes, e carecem de políticas públicas específicas para o seu desenvolvimento.
Resumo:
Neste trabalho comparamos as Curvas IS e de Phillips, derivadas a partir de modelos “tradicionais” e micro-fundamentados. Além disso, estimamos essas curvas para dados trimestrais brasileiros no período de 1994 a 2001. Na estimativa da IS foi usada a técnica de vetores de co-integração, já que esta curva é não balanceada – o hiato do produto é integrado de ordem zero e os regressandos são integrados de ordem um.
Resumo:
A World Wide Web em poucos anos de existência se tornou uma importante e essencial fonte de informação e a localização e recuperação de informações na Internet passou a ser um grande problema a ser resolvido. Isto porque a falta de padronização e estrutura adequada para representação dos dados, que é resultado da liberdade de criação e manipulação dos documentos, compromete a eficácia dos modelos de recuperação de informação tradicionais. Muitos modelos foram então desenvolvidos para melhorar o desempenho dos sistemas de recuperação de informação. Com o passar dos anos surge assim uma nova área de pesquisa a extração de dados da web que, ao contrário dos sistemas de recuperação, extrai informações dos documentos relevantes e não documentos relevantes de conjunto de documentos. Tais estudos viabilizaram a integração de informações de documentos distribuídos e heterogêneos, que foram baseados nos mesmos modelos aplicados a banco de dados distribuídos. Neste trabalho é apresentado um estudo que tem como objetivo materializar informações contidas em documentos HTML de modo que se possa melhorar o desempenho das consultas em relação ao tempo de execução quanto à qualidade dos resultados obtidos. Para isso são estudados o ambiente web e as características dos dados contidos neste ambiente, como por exemplo, a distribuição e a heterogeneidade, aspectos relacionados à maneira pela qual as informações estão disponibilizadas e como estas podem ser recuperadas e extraídas através de regras sintáticas. Finalizando o estudo são apresentados vários tipos de classificação para os modelos de integração de dados e é monstrado em detalhes um estudo de caso, que tem como objetivo demonstrar a aplicação das técnicas apresentadas ao longo desta pesquisa.