143 resultados para abordagem neo-kohlberguiana baseada no DIT
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O trabalho propõe-se a avaliar a integração do Mercosul em seus primeiros dez anos de existência, sob uma expectativa de que esta integração foi bem sucedida. A hipótese presente é a de que a ampliação do mercado que a integração propiciou tenha permitido criar estímulos à construção de vantagens competitivas e melhorar a inserção internacional das economias integradas. Busca-se aplicar os avanços recentes do pensamento acadêmico que inter-relaciona os temas comércio internacional, tecnologia e competitividade como meio de construir vantagem competitiva. O estudo está centrado na questão da competitividade das exportações. Na maioria das análises trabalha-se com a base de dados de comércio internacional CUCI (Classificação Uniforme para o Comércio Exterior) e a metodologia CAN2000 (Competitiveness Analysis of Nations) da Divisão Cepal/Onudi de Indústria e Tecnologia, para avaliar o impacto da integração em setores industriais. O âmbito teórico para ajudar nessa análise e ao qual o presente trabalho se insere encontra-se dentro do campo analítico da abordagem neo-schumpeteriana. A abordagem permite a discussão das estratégias empresariais, o papel da inovação e da concorrência na criação de vantagens competitivas, as diferenças de comportamento entre firmas em um mesmo setor, a presença de falhas de mercado, os diferentes processos de acumulação de experiência e aprendizagem por parte das firmas, os regimes tecnológicos, a complexidade institucional, as incertezas que cercam a conduta tecnológica e inovativa das empresas, as transformações nos ambientes econômicos, entre outros elementos, que auxiliaram a interpretar as mudanças do padrão de especialização e da estrutura da indústria no âmbito do Mercosul. Conclui-se que a integração per se motivou a melhora competitiva, mas em ritmo lento, o que leva a propor que devam ser adotadas medidas complementares para expandir as exportações, mediante apoio a setores selecionados entre os de maior crescimento do comércio mundial.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Esta dissertação mapeia a rede de relações intertextuais em Half a Life (2001) e sua continuação Magic Seeds (2004), os romances mais recentes do Prêmio Nobel de Literatura de 2001, V. S. Naipaul, como contribuição para o estudo da obra do autor. A noção de intertextualidade permeia os estudos literários, e o termo tem sido largamente empregado desde que foi cunhado por Julia Kristeva nos anos sessenta. Desde então as mais variadas, e muitas vezes divergentes, teorias sobre intertextualidade compartilham a idéia de que um texto só adquire significado pleno na interação com outros textos. A abordagem metodológica proposta é baseada na teoria da transtextualidade de Gérard Genette. Esta escolha implica o estudo de intertextos, paratextos, metatextos, arquitextos e hipertextos que constituem a interface entre os dois romances e outros escritos. O nome do protagonista "William Somerset Chandran" constitui o fio que guia o estudo das várias relações transtextuais nos dois romances. A partir do prenome do protagonista – William – este estudo situa os romances no contexto da tradição do Bildungsroman, e argumenta que estes estabelecem uma paródia arquitextual do gênero na medida em que subvertem seu cerne, ou seja, a formação do caráter do protagonista. O nome do meio do protagonista – Somerset – remete à ficcionalização do escritor Somerset Maugham na narrativa, ao mesmo tempo em que esta desmistifica a ótica ocidental sobre o hinduísmo popularizada por Maugham em The Razor's Edge. O sobrenome do protagonista – Chandran – leva ao estudo do conjunto de referências à origem indiana de Naipaul e o papel desta na produção do autor. Este nome se reporta ao romance de Narayan The Bachelor of Arts, cujo protagonista também é nomeado Chandran. Narayan é um escritor de destaque na literatura anglo-indiana e referência recorrente na obra de Naipaul. Os temas de migração e choque cultural apresentados nos dois romances têm sido presença constante na obra de Naipaul. Esta pesquisa mapeia a relação de continuidade entre os dois romances em questão e o conjunto da obra de Naipaul, salientando o papel da ambientação geográfica da narrativa, marcada pela jornada do protagonista através de três continentes. A teoria da transtextualidade é uma ferramenta operacional para a pesquisa, a qual examina a densidade das referências geográficas, históricas e literárias em Half a Life e Magic Seeds, visando aportar elementos para o estudo da produção literária de Naipaul, na medida em que estes romances recentes condensam e revisitam a visão de mundo deste autor.
Resumo:
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
Resumo:
Este estudo interdisciplinar se baseia na teoria dos sistemas desenvolvida pelo sociólogo alemão Niklas Luhmann (1927-1998). Analisa-se a literatura alemã por volta de 1800 dentro de uma concepção histórica que vê neste período o ponto culminante da transformação de uma sociedade estratificada em direção a uma ordem social moderna, estruturada por sistemas diferenciados como educação, economia, direito e literatura que realizam uma determinada função e se caracterizam por suas comunicações específicas. A poética da literatura romântica como fase constitutiva da literatura alemã moderna reflete este processo. Ela descreve sua autonomia, a diferenciação de um campo próprio, inicialmente através da negação de uma finalidade. Em seguida recorre ao gênio, o indivíduo excepcional, como garantia de uma arte livre de normas estéticas e coações sociais. Posteriormente abstrai destas justificativas externas ou individuais e formula tautologicamente seu campo para, no final, marcá-lo pela definição da qualidade de seus textos. Na semântica da época, formula-se esta qualidade no conceito da “ironia”, enquanto a teoria dos sistemas usa conceitos como observação de segunda ordem ou oscilação entre o atual e potencial. Paralelamente, o sistema da literatura diferenciado e autônomo torna-se um campo a ser observado por seu ambiente. A historia literária do século XIX o instrumentaliza por fins políticos, enquanto direitos autorais e o livro como mercadoria de possível lucro lhe atribui uma dinâmica acelerada. Encontra-se na figura do autor uma instância onde se cruzam as diversas observações de sistemas como direito, economia e ciências humanas.
Resumo:
O presente trabalho trata da Administração Baseada em Valor (VBM do inglês Value Based Management), que é uma ferramenta de auxílio à administração de empresas, que busca a identificação de value drivers, que são controles internos a serem monitorados, que devem abranger os principais pontos vistos pelo mercado como criadores de valor, pois o objetivo central da VBM é a majoração de valor para o acionista. A VBM também se utiliza do fluxo de caixa descontado (DCF do inglês Discounted Cash Flow). O objetivo central desta dissertação é fazer uma análise comparativa da estrutura interna de funcionamento e acompanhamento e dos controles de uma organização do segmento de telecomunicações com a filosofia da VBM, identificando o distanciamento de uma para com a outra. A empresa pesquisada é a Dígitro Tecnologia Ltda., de Florianópolis, que não utiliza a VBM. É uma pesquisa quantitativa e foi desenvolvida através do método de estudo de caso. Sua investigação foi dividida em três pontos principais: (1) a identificação, na empresa, da estrutura básica necessária para a implantação da Administração Baseada em Valor, (2) os itens necessários para se montar um DCF e (3) os controles internos possuídos pela organização, que possam servir como value drivers ou suas intenções de implantar controles. O estudo de caso foi único e exploratório, contando com a aplicação de entrevistas semi-estruturadas, observação direta e coleta de documentos. Conclui-se que a organização pesquisada está distante da filosofia da VBM, porém, com intenção de utilizar-se de inúmeros conceitos da Administração Baseada em Valor para auxiliar sua gestão.
Resumo:
Para o desenvolvimento de sistemas interativos que respeitem critérios de usabilidade em adição aos critérios de qualidade convencionais, é necessário que, desde suas primeiras etapas, as áreas de Engenharia de Software (ES) e de Interação Humano- Computador (IHC) sejam consideradas, simultaneamente e de maneira integrada. Essas duas áreas investigam modelos, conceitos, técnicas e práticas que refletem diferentes perspectivas sobre a atividade de desenvolvimento, uma orientada mais ao sistema (ES) e outra, mais ao usuário (IHC). Para conciliar estas perspectivas, é necessário o estabelecimento de um entendimento mútuo e a utilização conjunta e integrada de conceitos, técnicas e práticas de desenvolvimento de ambas as áreas. Este trabalho visa mostrar as possibilidades desta integração, através da combinação dos conceitos de Casos de Uso (Use Cases) e Cenários (Scenarios), importantes técnicas de modelagem amplamente utilizadas respectivamente nas áreas de ES e IHC, em diferentes contextos, com diferentes visões; mas apresentando similaridades valiosas para propiciarem o uso complementar de ambas as técnicas. Para sistematizar esta integração, é proposta uma abordagem teleológica – baseada em objetivos – de construção sistemática de casos de uso com quatro diferentes níveis de abstração, desde os mais abstratos casos de uso essenciais até os cenários, aqui utilizados como instâncias concretas de casos de uso. Com esta abordagem, pretende-se construir um modelo de casos de uso que permita especificar requisitos funcionais, conjuntamente com requisitos de interação, de maneira compreensível e praticável e que sirva como ponto de partida à continuidade do desenvolvimento orientado a objetos de software. Com o intuito de exemplificar a proposta, é descrita e discutida a aplicação passo a passo desta abordagem a um exemplo.
Resumo:
Uma das questões críticas relacionadas com um Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web diz respeito à eficácia da aprendizagem do aluno remoto. Assim como diversos trabalhos de pesquisa na literatura, nosso estudo preocupou-se com a modelagem do Estilo Cognitivo de Aprendizagem (ECA) do aluno visando, em um futuro próximo, a adaptação dos conteúdos pedagógicos a esta importante característica individual do aluno. Esta tese descreve a metodologia utilizada para investigar como modelar o ECA do aluno remoto, baseado na observação e análise de seu comportamento em um ambiente de ensino e aprendizagem na Web. Em nosso estudo, o ECA representa o estágio de desenvolvimento cognitivo do aluno, de acordo com a taxonomia de Bloom. Nós acreditamos que os principais benefícios de adaptar a instrução ao ECA do aluno estão relacionados com a possibilidade de oportunizar a ampliação de suas habilidades cognitivas, assim como oportunizar a aprendizagem em profundidade sobre os conteúdos em estudo. A metodologia quase-experimental usada para a modelagem do ECA do aluno compreendeu duas fases distintas: (i) geração das classes de ECA a partir da aplicação de um teste psicológico em uma amostra da população-alvo; e (ii) desenvolvimento do módulo de ensino experimental e o estudo das Trajetórias de Aprendizagem (TA) padrão das classes de ECA, a partir da observação de seus comportamentos durante a execução de uma sessão de estudo na Web. Como resultado deste estudo, identificamos os principais indicadores, que melhor discriminaram as classes de ECA consideradas. Os resultados foram obtidos a partir da observação e análise das TAs na Web. Todo o conhecimento obtido a partir desta investigação deverá nos permitir automatizar o diagnóstico do ECA do aluno remoto. Este conhecimento também será utilizado como base para o desenvolvimento dos conteúdos a serem oferecidos ao aluno pelo Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Durante os últimos anos as áreas de pesquisa sobre Agentes Inteligentes, Sistemas Multiagentes e Comunicação entre Agentes têm contribuído com uma revolução na forma como sistemas inteligentes podem ser concebidos, fundamentados e construídos. Sendo assim, parece razoável supor que sistemas inteligentes que trabalhem com domínios probabilísticos de conhecimento possam compartilhar do mesmo tipo de benefícios que os sistemas mais tradicionais da Inteligência Artificial receberam quando adotaram as concepções de agência, de sistemas compostos de múltiplos agentes e de linguagens de comunicação entre estes agentes. Porém, existem dúvidas não só sobre como se poderia escalar efetivamente um sistema probabilístico para uma arquitetura multiagente, mas como se poderia lidar com as questões relativas à comunicação e à representação de conhecimentos probabilísticos neste tipo de sistema, principalmente tendo em vista as limitações das linguagens de comunicação entre agentes atuais, que não permitem comunicar ou representar este tipo de conhecimento. Este trabalho parte destas considerações e propõe uma generalização do modelo teórico puramente lógico que atualmente fundamenta a comunicação nos sistemas multiagentes, que será capaz de representar conhecimentos probabilísticos. Também é proposta neste trabalho uma extensão das linguagens de comunicação atuais, que será capaz de suportar as necessidades de comunicação de conhecimentos de natureza probabilísticas. São demonstradas as propriedades de compatibilidade do novo modelo lógico-probabilístico com o modelo puramente lógico atual, sendo demonstrado que teoremas válidos no modelo atual continuam válidos no novo modelo. O novo modelo é definido como uma lógica probabilística que estende a lógica modal dos modelos atuais. Para esta lógica probabilística é definido um sistema axiomático e são demonstradas sua correção e completude. A completude é demonstrada de forma relativa: se o sistema axiomático da lógica modal original for completo, então o sistema axiomático da lógica probabilística proposta como extensão também será completo. A linguagem de comunicação proposta neste trabalho é definida formalmente pela generalização das teorias axiomáticas de agência e comunicação atuais para lidar com a comunicação de conhecimentos probabilísticos e pela definição de novos atos comunicativos específicos para este tipo de comunicação. Demonstra-se que esta linguagem é compatível com as linguagens atuais no caso não-probabilístico. Também é definida uma nova linguagem para representação de conteúdos de atos de comunicação, baseada na lógica probabilística usada como modelo semântico, que será capaz de expressar conhecimentos probabilísticos e não probabilísticos de uma maneira uniforme. O grau de expressibilidade destas linguagens é verificado por meio de duas aplicações. Na primeira aplicação demonstra-se como a nova linguagem de conteúdos pode ser utilizada para representar conhecimentos probabilísticos expressos através da forma de representação de conhecimentos probabilísticos mais aceita atualmente, que são as Redes Bayesianas ou Redes de Crenças Probabilísticas. Na outra aplicação, são propostos protocolos de interação, baseados nos novos atos comunicativos, que são capazes de atender as necessidades de comunicação das operações de consistência de Redes Bayesianas secionadas (MSBNs, Multiple Sectioned Bayesian Networks) para o caso de sistemas multiagentes.
Objetos inteligentes de aprendizagem : uma abordagem baseada em agentes para objetos de aprendizagem
Resumo:
Esta pesquisa propõe uma abordagem na qual objetos de aprendizagem são construídos com base no paradigma de agentes. A fundamentação tecnológica desta abordagem é constituída por uma integração entre tecnologias desenvolvidas para Objetos de Aprendizagem e para Sistemas Multiagentes. O conceito central apresentado é o de Objeto Inteligente de Aprendizagem, entidade que corresponde a um agente que é capaz de gerar experiências de aprendizagem reutilizáveis, no mesmo sentido que os objetos de aprendizagem. É apresentada uma sociedade multiagente concebida com a finalidade de dar suporte a abordagem proposta, bem como a modelagem do processo de comunicação entre os agentes desta sociedade. Como forma de validar as propostas feitas, são apresentados uma arquitetura de agentes que implementa os conceitos definidos e um conjunto de recursos para a construção de agentes compatíveis com esta arquitetura. Através destes recursos é possível a implementação das entidades propostas neste trabalho.
Resumo:
Este trabalho pretende, na visão de novas tecnologias, discutir o processo de forjamento das ligas de alumínio (ABNT 6061), buscando propor uma metodologia baseada na ciência da engenharia. Deseja-se minimizar os procedimentos de tentativa e erro no desenvolvimento de processos de conformação. Para tanto, novas tecnologias disponíveis atualmente, tais como o Projeto Assistido por Computador (CAD), a Fabricação Assistida por Computador (CAM) e a Simulação do Processo (CAE) são empregadas. Resultados experimentais mostrando o comportamento da liga ABNT 6061 através das curvas de escoamento bem como o estabelecimento da condição do atrito no processo de conformação, avaliando dois lubrificantes comerciais disponíveis (Deltaforge 31 e Oildag) para aplicações nas ligas de alumínio, são reportados neste trabalho. A comparação dos resultados obtidos de um experimento prático de forjamento com a simulação pelo "Método dos Elementos Finitos" usando o código "QForm" é apresentada para uma peça de simetria axial em liga de alumínio. Finalmente, os resultados obtidos no forjamento de um componente automotivo em liga de alumínio (ABNT 6061), desenvolvido em parceria com a empresa Dana, são analisados e comparados com as simulações computacionais realizadas usando o código "Superforge".
Resumo:
XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.
Resumo:
Este trabalho propõe um modelo para a organização do procedimento de desenvolvimento de produto em ambientes empresariais. É baseado na atual situação de competitividade, a qual exige que as companhias introduzam ciclicamente novos produtos no mercado, deste modo tornando o desenvolvimento de produtos um processo de negócios da empresa, requerendo gestão permanente. A organização do processo de desenvolvimento de produto é baseada na introdução de um modelo de estruturação de atividades, cuja aplicação é facilitada tanto por um mecanismo de intervenção, como pelo sistema de métricas, ambos especificamente elaborados para dar suporte ao modelo de estruturação de atividades. Este modelo é baseado no conceito de Desenvolvimento Integrado de Produto. Como principais resultados, esta tese apresenta: (i) um sistema de métricas capaz de avaliar o desempenho do processo de desenvolvimento, através de índices de Qualidade, Custo e Atraso; (ii) um modelo de integração das atividades, que explora o uso da engenharia simultânea e do controle através de gates e (iii) um modelo de intervenção do PDP, cujo objetivo é adaptar o modelo de integração das atividades às características específicas da empresa e do segmento onde ele seja aplicado. Esta proposta é ilustrada através da aplicação em uma empresa do segmento de brinquedos.
Resumo:
O estudo tem como objetivo analisar os resultados de rentabilidade de um grupo de dez produtores rurais da região do Alto Uruguai, que utilizam um modelo de gestão em suas propriedades, identificando a utilização dos recursos disponíveis para a produção de grãos em diferentes faixas de rentabilidade. Os produtores estão divididos em dois grupos, um grupo de produtores com maior rentabilidade e outro grupo de produtores com menor rentabilidade, baseada na média dos seus resultados econômicos e financeiros, das últimas três safras agrícolas (1999/2000 – 2000/2001 – 2001/2002). No estudo são utilizados os conceitos de sistema, subsistemas, recursos e resultados. Nos resultados da pesquisa estão as principais características que compõem os recursos de cada um dos subsistemas da propriedade rural, apontadas pelo grupo de produtores rurais entrevistados. Finalizando o trabalho, são apresentadas as diferenças e semelhanças constatadas entre os dois grupos de produtores rurais, baseadas na utilização das características de cada recurso, com a apresentação do ranking dos recursos e subsistemas mais importantes das propriedades rurais pesquisadas. Os recursos apontados como os mais importantes da pesquisa foram os recursos humanos e os recursos financeiros. Nos subsistemas mais importantes aparecem respectivamente o subsistema social e o subsistema da informação.