983 resultados para Softwares CDS
Resumo:
Os debates e estudos sobre a importância do conhecimento organizacional têm sido cada vez mais freqüentes nos últimos anos. As empresas e universidades de negócios consideram a Gestão do Conhecimento uma vantagem competitiva para as organizações que conseguem estabelecer e aplicar modelos voltados para este fim. A bibliografia atual sobre este tema tem demonstrado duas tendências de propostas práticas para a Gestão do Conhecimento. A primeira enfatiza a importância do desenvolvimento de softwares responsáveis pela disseminação e estocagem dos conhecimentos organizacionais adquiridos de diversas fontes. A segunda, aplicada neste trabalho, é focada na capacidade e potencial dos indivíduos, e destaca a importância de criar e compartilhar conhecimentos através das pessoas. Este trabalho demonstra, a partir de um modelo de criação e gestão do conhecimento organizacional desenvolvido pelos professores Ikujiro Nonaka e Hirotaka Takeuchi, e denominado "Espiral do Conhecimento", uma aplicação prática de Gestão do Conhecimento numa equipe de representantes de vendas de uma indústria farmacêutica. Evidenciam-se, como conseqüência desta adaptação, novas rotinas do processo de "Espiral do Conhecimento", apresentando-se melhorias qualitativas e quantitativas nos resultados da equipe.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.
Resumo:
Empresas e instituições de ensino têm realizado investimentos significativos na implementação de programas de educação a distância (EAD) que utilizam a Internet como principal tecnologia de informação e comunicação. O atual cenário econômico, cultural e tecnológico favorece a criação de um mercado eletrônico da aprendizagem, justificando tais investimentos. A educação a distância aparenta mover-se em direção da Internet, mas o caminho é difícil por causa das muitas incertezas. Estas incertezas, juntamente com o grande número de variáveis envolvidas nos programas de EAD via Internet, dificultam, para os gestores, que se mantenha o foco nos pontos mais essenciais. Assim, o objetivo deste trabalho é identificar os fatores críticos de sucesso dos programas de educação a distância via Internet. Procura-se ainda, identificar os pontos importantes e os problemas mais críticos na gestão destes programas. Para isso, foram realizadas 9 entrevistas em profundidade com especialistas do assunto no Brasil. Posteriormente, a partir dos resultados destas entrevistas, foram realizados dois estudos de caso, com o programa Iniciando um Pequeno Grande Negócio, do SEBRAE, e com o Núcleo de Aprendizagem Virtual da Escola de Administração da UFRGS. O resultados da pesquisa apontaram a existência de seis fatores críticos de sucesso, ligados à capacitação e à experiência da equipe dos programas de EAD, ao grau de envolvimento dos membros da organização com os programas de EAD, ao conhecimento e à preocupação com as características e comportamento do estudante, ao modelo pedagógico, à tecnologia – em especial a infra-estrutura tecnológica e os softwares utilizados - e à realização de parcerias.
Resumo:
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
Resumo:
Este trabalho é um estudo aplicado da implementação e utilização do gerenciamento do crescimento da confiabilidade no setor de máquinas agrícolas na empresa John Deere Brasil SA. O uso de técnicas e softwares de confiabilidade para monitorar o desenvolvimento do projeto da colheitadeira de grãos – modelo da série 1100 – foi fundamental para determinar o momento exato de introduzir o produto no mercado. A análise das falhas dos produtos existentes, sugestões dos clientes e informações da área de suporte e serviços, serviram como base para a introdução de diversas melhorias para o novo modelo de colheitadeira. As principais atividades referentes à confiabilidade foram, a previsão da confiabilidade, testes e planejamento do crescimento da confiabilidade, modelagem do crescimento da confiabilidade e a análise dos dados obtidos com os testes de campo. O objetivo da implementação das ferramentas do gerenciamento do crescimento da confiabilidade foi administrar as informações dos eventos de testes de campo, para que as falhas verificadas durante o período de testes fossem reprojetadas e as ações corretivas implementadas e verificadas suas melhorias.
Resumo:
Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).
Resumo:
The aim of this case study was to investigate how the evolutionary process of the development of software, especially the change of paradigm for the factory software, has affected the structure of the Board of Relacionamento, Desenvolvimento e Informações - DRD at a public company called Dataprev and also reflecting or not a return to the model taylorist-fordist of the organization on production. For this study, there were interviews and a questionnaire applied, as well as documentary and literature review on the following topics: organizational structure, factory software, taylorism and fordism. From the data collected and analyzed, in the perspective studied, it was understood that there is not a return to the model taylorist-fordist to organize the production in the process of adopting the concept of a software factory in Dataprev. In addition to that, there was a flexibility in the organizational structure of its units of development - the softwares factories Dataprev.
Resumo:
The present work consists on the development and exploration of a knowledge mapping model. It is aimed in presenting and testing that model in an exploratory manner for the operationalization in theoretical terms and its practical application. For this proposal, it approaches ¿knowledge management¿ by three dimensions of management: processes control, results control and leadership. Assuming the inherently personal character of knowledge and admitting the impossibility for the management to command the individuals knowledge mental processes, this study states the possibility for management to control the organizations information processes, to state and to monitor the objectives and to lead people. Therefore, the developed tool searches to graphically represent the people¿s knowledge, which becomes, consequently, information. Also it evaluates the individual¿s maturity against the identified knowledge and prescribes, according to the Situational Leadership Theory, a style of leadership in compliance with the respective maturities. The knowledge map considered here translates the graphical representation of the relevant knowledge that is said to reach the objectives of the organization. That fact allows the results management for two reasons: first, the knowledge items are directly or indirectly connected to an objective and second, the knowledge map developed indicates a importance grade of the identified knowledge for the main objective stated. The research strategy adopted to explore the model of knowledge mapping and to test its applicability, also identifying its possible contributions and limitations, is the Actionresearch. Following the research strategy¿s prescribed stages, the knowledge map, as considered by this study, was applied in a software development company to hospitals, clinics and restaurants management which is called ¿Tergus Systems and Consulting¿. More precisely, the knowledge map was applied in the customer support company¿s area for hospitals. The research¿s empirical evidences had concluded that the model is applicable with low level of complexity, but with great demand of time. The more important contributions are related to the identification of the relevant knowledge to the department objectives in set with a prescription of the knowledge capture and transference necessities, as well as, the orientation for the appropriate leadership style for each subordinate related to the knowledge item in question.
Resumo:
A dissertação tem como objeto a investigação das relações entre a o design de um website de comércio eletrônico de CDs e o comportamento do consumidor virtual, com ênfase a sua atitude e intenção de compra. O objetivo principal é mensurar o efeito do design da loja virtual (website) em seu papel de agente de vendas na Internet. A análise do comércio varejista de CDs foi escolhida, pois este produto é um dos principais artigos de venda neste canal. O estudo é apoiado em um referencial teórico, no qual são analisadas as características dos seguintes pontos: i) a Internet atuando como canal de vendas; ii) o comércio varejista de CD no Brasil e iii) o comportamento do consumidor e o seu processo decisório. Ainda no referencial teórico são apresentados os diversos modelos de avaliação de website existentes: baseado em Marketing, Teoria dos Dois Fatores, avaliação da qualidade, avaliação da web (W AM) e aceitação da Tecnologia na Web (T AM). A análise e comparação destes modelos serviu como base para o desenvolvimento da proposta do modelo de avaliação website. O estudo é complementado pelo desenvolvimento de uma pesquisa, com aplicação de questionário via web (websurvey). A coleta dos dados é utilizada como forma de validação estatística das relações existentes no modelo desenvolvido. Isto é feito por meio do uso da ferramenta de análise de Equações Estruturadas (SEM), suportada pelos conceitos e métodos de abordagem descritos no referencial teórico. A ferramenta permite tanto avaliar um modelo de mensuração e um modelo estrutural simultaneamente.
Resumo:
Esta pesquisa, de caráter exploratório, visou identificar os fatores que influenciam a utilização da tecnologia da informação (TI) em uma instituição de ensino superior, na visão de seus alunos, professores e funcionários. A coleta de dados foi realizada através da aplicação de uma pesquisa survey, com um conjunto de perguntas fechadas e abertas, que resultou em oitocentos e trinta e sete questionários respondidos. Os resultados indicaram diversos fatores que influenciam diretamente a utilização da TI e outros que moderam essa utilização. O fator expectativa de performance influencia positivamente o uso da TI, ou seja, quanto maior a expectativa do usuário de que o uso da TI impacte em melhorias e facilidades na realização de seu trabalho, maior é o uso. O fator expectativa de esforço também influencia o uso da TI, sendo que este é maior entre os indivíduos que acreditam que não precisarão despender muitos esforços para utilizar a TI. Condições facilitadas para o uso, como suporte técnico, apoio institucional e compatibilidade entre softwares, igualmente influenciam o uso de forma positiva, assim como a influência social, que representa a interferência que a opinião de terceiros pode exercer sobre o comportamento do usuário da TI. Outras características também influenciam o uso, como a idade (pessoas mais jovens utilizam mais a TI), experiência no uso (pessoas mais experientes utilizam com maior freqüência), gênero (homens utilizam mais) e o grau de voluntariedade (pessoas que utilizam a TI de forma mais voluntária, utilizam menos).
Resumo:
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.
Resumo:
A tecnologia de informação e, mais especificamente, os Enterprise Systems (ESs), têm recebido enorme atenção e investimentos maciços nas organizações. Por se tratar de uma tecnologia relativamente nova, os estudos sobre ESs não têm claro os seus impactos na transformação organizacional em termos das pessoas e cultura numa perspectiva sociotécnica, estruturalista e humanista. Por meio de um estudo qualitativo fruto de bricolagem com vários ambientes de análise, características de sujeitos e com a ferramenta de análise do conteúdo do discurso, puderam-se confirmar as hipóteses sobre os impactos dos ESs quanto à melhoria nas relações pessoa/pessoa, pessoa/alta gerência e pessoa/trabalho, base do levantamento "Um Excelente Lugar para se Trabalhar", bem como, impactos em outras variáveis analisadas. O estudo estendeu-se um pouco mais e verificou as habilidades dos implantadores dos sistemas e desenvolvedores dos softwares, as características das empresas com relação à fase de maturidade evolutiva e os objetivos pouco claros de implantação dos ESs como fatores dificultadores de implantação, resultando em sub-utilização e resistência e perda de recursos. O trabalho realiza também uma ampla pesquisa bibliográfica que evidencia que ainda não há um grau médio de clareza sobre as reais características do fenômeno "implantação de ES", suas justificativas, problemas, objetivos, fatores determinantes de sucesso, etc.
Resumo:
Este trabalho tem como objetivo principal determinar a troca de calor em uma torre de resfriamento de grande porte, do tipo seca. A força motriz deste sistema é o empuxo resultante da diferença de temperatura entre o ar interior e exterior da torre. A partir de uma certa velocidade o vento externo também desempenha um papel importante. A convecção natural ocorre em regime turbulento, devido às grandes dimensões. A modelagem numérica é feita pelo Método dos Volumes Finitos com malhas criadas sobre Elementos Finitos, através dos softwares comerciais Fluent e CFX. Os resultados são obtidos para diferentes potências dissipadas no trocador de calor. A partir dos resultados são realizados estudos sobre a viabilidade de mudanças na geometria da torre, a fim de se obter melhorias no escoamento, bem como uma troca de calor mais eficiente. Faz-se ainda uma regressão a fim de obter correlações entre a potência dissipada no trocador de calor e a vazão mássica de ar necessária para a troca. Estas correlaçõoes são de utilidade, para aplicações posteriores, na implantação de um simulador para o processo de troca de calor nesta torre. O trocador de calor também é enfocado a fim de se determinar o coeficiente global de troca térmica, a fim de disponibilizá-lo para aplicação em outros trabalhos