945 resultados para Sistemas de informação geográ
Resumo:
Em 1985, Mehra e Prescott levantaram uma questão que até hoje não foi respondida de forma satisfatória: o prêmio de risco das ações americanas é muito maior do que poderia ser explicado pelo “paradigma neoclássico de finanças econômicas” (financial economics) representado pelo modelo C-CAPM. E, a partir de então, este problema não resolvido ficou conhecido como o “Equity Premium Puzzle” (EPP) ou o “Enigma do Prêmio (de risco) das Ações”. Este enigma estimulou a produção de uma série de artigos, dissertações e teses que tentaram ajustar os modelos intertemporais de utilidade esperada aos dados dos mercados financeiros. Dentro deste contexto, esta tese busca (i) revisar a evolução histórica da teoria dos modelos de maximização da utilidade intertemporal dos agentes, (ii) analisar os pressupostos e conceitos chaves desses modelos, (iii) propor um novo modelo que seja capaz de solucionar o EPP, (iv) aplicar este modelo proposto aos dados históricos anuais entre 1929 e 2004 e (v) validar a lógica deste modelo através das metodologias Mehra-Prescott e Hansen-Jagannathan. Esta tese faz uma crítica de que os estudos até aqui desenvolvidos tentaram explicar a dinâmica de um mercado financeiro altamente sofisticado, através de um modelo de economia não-monetária e de subsistência. Assim, a sua contribuição consiste na alteração desse pressuposto de uma economia de subsistência, considerando que a renda disponível do setor privado não seja integralmente consumida, mas que também possa ser poupada. Assumindo que as pessoas obtêm satisfação (utilidade) tanto pelo consumo atual como pela poupança atual (que será o consumo futuro), será deduzido que a utilidade marginal de consumir é igual à de poupar, em todo e qualquer período. Com base nisso, a utilidade marginal a consumir é substituída pela utilidade marginal de poupar dentro do modelo básico do C-CAPM. Para reforçar a idéia de que o modelo desta tese usa dados de poupança em vez de consumo, ao longo do trabalho ele será chamado de Sanving-CAPM, ou S-CAPM. Este novo modelo mostrou-se capaz de solucionar o EPP quando submetidas às abordagens Mehra-Prescott e Hansen-Jagannathan.
Resumo:
Explorar as lições aprendidas na organização é uma tarefa relevante na gestão do conhecimento, pois a lição aprendida é um instrumento de conhecimento existencial, oriundo de experiência, positiva ou negativa, motivada durante a execução ou observação de fenômenos nas atividades e processos da organização, que, quando explicitado ou compartilhado, permite a elevação do conhecimento individual e, conseqüentemente, o aumento da inteligência organizacional. Estudos recentes e a literatura mostram que o compartilhamento e a transferência de conhecimento estão em estágio aquém dos resultados efetivos observados, mesmo com altos investimentos em projetos de gestão e em ferramentas de tecnologia de informação. Este trabalho estuda a gestão de Lições Aprendidas na organização sob uma perspectiva de como os mecanismos de compartilhamento e transferência de conhecimento podem promover uma gestão dinâmica de Lições Aprendidas, visando diminuir essa lacuna. Utiliza, como base conceitual, os ciclos de aprendizagem propostos por Stewhart e Kolb, por exemplo, empregados em processos de gestão de melhorias nas organizações. Também, foram estudados modelos de gestão de compartilhamento e transferência de conhecimento, de diversas fontes relevantes, tais como, Szulanski, Argyris e Dixon, a partir da análise dos seus fatores-chaves e do levantamento de mecanismos de comunicação, interpessoais e eletrônicos, aplicáveis ao contexto do estudo. O quadro teórico gerado serviu como protocolo para ser aplicado em pesquisa de campo, através do método de estudo de caso, em três empresas, indústrias brasileiras competitivas, tidas como sólidas, bem sucedidas, inovadoras e líderes em seus mercados de atuação, entre outros atributos que favorecem o escopo deste trabalho. Buscou-se identificar a replicação da teoria e o grau de suficiência e de eficiência dos mecanismos de “capilarização” das Lições Aprendidas – metáfora criada, no sentido de que, se a gestão das Lições Aprendidas for “capilar”, ou seja, conseguir chegar a todos os pontos da organização, aumenta-se o potencial de aproveitamento dos benefícios da exploração do conteúdo delas. Assim, se tem potencial para melhorar o desempenho da organização, objetivo chave da gestão do conhecimento.
Resumo:
O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.
Resumo:
Esta tese trata de um tema fundamental na sociedade moderna: gestão escolar. O objetivo deste trabalho é contribuir com o gestor, ou a gestora, de Instituições de Ensino Superior de tal forma que ele, ou ela, tenha uma orientação calcada em resultados científicos sobre que ações e medidas devem ser tomadas para melhorar o desempenho de seus formandos em exames padronizados como o Exame Nacional de Cursos (ENC), também conhecido como Provão. Com base em uma extensa pesquisa de modelos de desempenho escolar, foi desenvolvido um modelo conceitual estimável pela técnica dos Modelos Lineares Hierárquicos. A seguir, o modelo estatístico foi ajustado utilizando-se os dados de desempenho escolar dos formandos do curso de Administração de Empresas que realizaram o de 2003. Com base nos resultados obtidos, procurou-se sugerir aos gestores escolares ações. Dessa forma, procurou-se preencher dois objetivos no início deste trabalho: (1) identificar variáveis que ajudem a explicar o desempenho de formandos nos cursos de graduação em Administração de Empresas em exames nacionais como o Provão e o ENADE e (2) oferecer insumos aos gestores de IES de Administração de Empresas sobre como seria possível gerenciar aquelas variáveis que estejam dentro do controle da instituição. Três variáveis, em especial, tiveram um efeito acentuado sobre o desempenho escolar no Provão: fluência na língua inglesa, freqüência de uso de computadores e avaliação que os respondentes fazem das competências a que foram expostos durante o curso superior. Porém, duas dificuldades de medição associadas a esses resultados devem ser consideradas. Em primeiro lugar, a fluência em inglês e o uso de computadores incorporam, em seu efeito, o efeito de variáveis latentes não incorporadas neste estudo. Dessa forma, a origem do efeito dessas duas variáveis não pode ser totalmente esclarecida e o gestor deve tomar diversas ações a fim de cobrir diversas possibilidades distintas. Em segundo lugar, está o fato de que a avaliação que se faz das competências é baseada na percepção de cada aluno e não em medidas intrínsecas de competências desenvolvidas ao longo do curso. Portanto, parte-se da premissa de que os alunos, em média, avaliam, corretamente, as competências que seus cursos os ajudaram a desenvolver. Nas limitações a este estudo, destacaram-se a unidimensionalidade do construto de eficácia escolar e o fato de que a variável utilizada considera o desempenho bruto dos alunos, não sendo uma medida de valor agregado. Além disso, mencionou-se, como limitação, a impossibilidade de se precisar a origem dos efeitos da fluência em inglês e do uso de computadores. Finalmente, as oportunidades de pesquisas futuras tratam de quatro áreas de pesquisas possíveis: (1) estudos comparativos com os resultados de cursos superiores em outras áreas; (2) estudos longitudinais; (3) ampliação do construto eficácia escolar e (4) construção de escalas e indicadores. Cada uma dessas áreas de pesquisa auxiliariam na superação das limitações encontradas no desenvolvimento deste trabalho.
Resumo:
Com vários propósitos, inclusive o de redução de custos e o de facilitar a obtenção das informações desejadas pelo usuário, muitas empresas prestadoras de serviços ao consumidor adotam em suas CATs (Centrais de Atendimento Telefônico) recursos tecnológicos de automação da interação. Examinando-se sob a ótica dos usuários das CATs, estes poderão ter expectativas sobre o serviço que encontrarão e manifestar preferências com relação aos recursos de interação automática. As CATs, ao utilizarem tecnologias de automação da interação, podem estar ou não satisfazendo as expectativas e as preferências dos usuários. Para a determinação de argumentos que suportem as proposições levantadas durante a revisão bibliográfica sobre o tema, realizou-se uma pesquisa dividida em três partes: a) um focus group com alguns usuários de CATs; b) um estudo de campo com usuários de CATs; c) entrevistas com especialistas (levantamento de experiência). Com a técnica Análise de Preferência, propõe-se um modelo das preferências dos usuários em relação ao atendimento automático em CATs. Esse modelo, em princípio, não é generalizável devido às características do processo de amostragem utilizado nesse estudo exploratório. Determinaram-se três grupos distintos de usuários, de acordo com a similaridade entre suas preferências. Determinaram-se usos da tecnologia de atendimento automático que estão em sintonia com as preferências dos usuários. Finalmente, usando os conceitos do Balanced Scorecard, propõe-se um modelo de avaliação gerencial para o uso da tecnologia de atendimento automatizado nas Centrais de Atendimento Telefônico das empresas prestadoras de serviços ao consumidor.
Resumo:
O ambiente de negócios vem passando por rápidas e intensas mudanças provocadas pelo fortalecimento da economia global, pela transformação de economias e sociedades industriais em economias de serviço, e pelo aparecimento da empresa digital. Estas alterações provocaram um aumento significativo da competição em todos os setores do mercado onde, fatalmente, nem todas as empresas conseguirão sobreviver. É em meio a este complexo cenário que as organizações vem, incessantemente, buscando alternativas para fazer frente a estes desafios. Um dos focos de maior atenção, neste contexto, é a gestão da cadeia de suprimentos. Afinal, a probabilidade de que uma organização seja bem-sucedida está diretamente relacionada com a sua competência e habilidade de administrar, ou participar ativamente da gestão, da rede produtiva na qual ela está inserida. Este fato faz com que o desempenho da empresa, quando observada sob a perspectiva da sua atuação como elo de uma cadeia, passe a ter valor estratégico. Por outro lado, ainda existe uma acentuada carência de modelos analíticos robustos que possam auxiliar tanto na avaliação do desempenho da cadeia de suprimentos e de seus elos, como também nas tomadas de decisões referentes à priorização de iniciativas que objetivem melhorias sistêmicas. O resultado, na prática, é que muitas decisões são tomadas com base na experiência, intuição ou fé, sem que as questões tenham sido objetivamente estruturadas e equacionadas. Este trabalho tem como objetivo principal identificar quais são os aspectos, tecnológicos e os relacionados à integração de processos interempresariais, que impactam no desempenho de uma empresa atuando como elo de uma cadeia de suprimentos. Utiliza-se, para tanto, a indústria brasileira de autopeças como campo de investigação para este estudo, dado que este setor está entre os que maior retorno poderia auferir de uma gestão eficiente de seus elos e da sua cadeia de suprimentos. São duas as principais contribuições desta pesquisa. A primeira é a proposição de um modelo teórico, a partir do qual se pode construir uma equação explicativa-preditiva que mensure o desempenho de uma empresa atuando como elo de uma cadeia de suprimentos. Já a segunda contribuição é a elaboração de um panorama sobre a atual situação da cadeia da indústria de autopeças, observada sob a perspectiva do desempenho de seus elos. Por fim, estudos futuros podem ser conduzidos em outras indústrias, incluindo o setor de serviços, usando o desenvolvimento teórico proposto nesta tese.
Resumo:
O trabalho identifica três abordagens de gestão do conhecimento e discute seu papel na instrumentalização de organizações para a competição no paradigma da economia digital. Em um estudo de caso, é analisada a validade da disciplina, assim como da abordagem empregada.
Resumo:
Este trabalho consiste de um estudo de caso que tem por objetivo principal, avaliar o processo de implementação de um Sistema de Informações integrado em uma Instituição de Ensino Superior, entidade privada, com base no modelo proposto por Walton(1993).No referencial teórico analisaram-se os conceitos de dados, informação,conhecimento, a informação como recurso estratégico nas organizações, os Sistemas de Informação com o uso da Tecnologia da Informação, apresentando seus tipos, evolução, objetivos e, algumas formas de implementação preconizada na literatura. O instrumento de pesquisa adotado foi a entrevista, estruturada com a utilização de um questionário elaborado a partir dos objetivos do estudo e do modelo de Walton (1993). A análise dos dados coletados foi feita através da aderência das respostas com os preceitos do modelo, o que possibilitou constatar sua contribuição para a identificação dos elementos críticos de um processo de implementação de Sistema de Informações integrado, através das fases inter-relacionadas de criação do contexto favorável, desenho, instalação e uso do sistema, com a contribuição das ações da administração em promoverem os atributos-chave essenciais de alinhamento das estratégias de negócio, de organização e de tecnologia, comprometimento e domínio por parte de todos os envolvidos.
Resumo:
O objetivo deste trabalho é analisar os fatores que determinam o desenvolvimento do crédito imobiliário nos países. Com dados de crédito imobiliário de 93 países de 1996 a 2007, estudo em que medida um ambiente macroeconômico estável, fortes direitos legais (através de leis de falência), sistemas de informação de crédito mais profundos e restrições ao poder do executivo influenciam a expansão do crédito imobiliário. Analisando países desenvolvidos e em desenvolvimento, controlando pelo tamanho do país, concluí que países com baixa volatilidade da inflação e do crescimento do PIB, com leis de qualidade e alta restrição ao poder executivo têm crédito habitacional mais desenvolvido.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
A tecnologia da informação (TI) tem provocado mudanças significativas nas empresas, mudanças estas que muitas vezes não têm um grau de sustentabilidade coerente com os bons resultados obtidos, principalmente no que se refere aos ativos intangíveis à organização. Nesse sentido, o ERP – Enterprise Resource Planning – ou Sistemas de Informações Gerenciais – SIG – são sistemas que estão sendo discutidos e analisados não só pela academia e institutos ligados à comercialização do ERP, como também pelo próprio meio empresarial como uma tecnologia de agregação de valor intangível às organizações. Este trabalho, através de um estudo de caso, baseado em pesquisa de natureza essencialmente qualitativa, mas com alguns ferramentais quantitativos, e de caráter exploratório, numa empresa do ramo de TI, localizada no Distrito Federal, analisa a evolução dos componentes do capital intelectual (capital de processos, capital de relacionamento, capital de inovação e capital humano), após a implantação do ERP. O objetivo deste estudo foi determinar a influência do ERP no desenvolvimento do capital intelectual numa organização de TI de pequeno porte do Distrito Federal. O referencial teórico contextualiza a importância da tecnologia da informação. Faz-se um apanhado da taxonomia existente de ativos intangíveis, abordando suas importâncias para a competitividade de organizações modernas, e apresenta categorizações dos diferentes tipos de intangíveis. A principal conclusão da pesquisa é que existem fortes evidências que o capital de processos evoluiu após a implantação do ERP. Entretanto, não existe evidências de que houve evolução no capital de inovação. Já para o capital de relacionamento e humano as evidências de evolução são fracas
Resumo:
A inserção do princípio da eficiência na Constituição Federal de 1988 vem provocando a necessidade de melhor atuação e aperfeiçoamento dos Tribunais de Contas no Brasil, visando ao melhor atendimento das demandas da sociedade. O desenvolvimento de ações para o acompanhamento dessas demandas é de suma importância para o fortalecimento dos órgãos de controle externo, cuja credibilidade depende da eficiência e da eficácia com que respondem às demandas sociais. A presente pesquisa analisou até que ponto o uso de tecnologia de informação emprestou eficiência ao atendimento de demandas da sociedade pelo Tribunal de Contas do Estado de Pernambuco. Quanto à metodologia, a pesquisa foi descritiva, de campo e estudo de caso. O universo foi composto pelos servidores do Tribunal de Contas do Estado de Pernambuco, sendo utilizadas duas populações amostrais. Os dados foram coletados por entrevistas e questionário e tratados com abordagem qualitativa e estatística descritiva. Verificou-se que, apesar dos avanços já alcançados na gestão administrativa do órgão, inclusive com a disseminação do uso de tecnologia de informação, há uma carência de aprimoramento no recebimento e no acompanhamento das demandas recebidas. Identificou-se que a disponibilização de informações gerenciais sobre essas demandas repercutirá na eficiência administrativa da instituição. O estudo sugere um conjunto de ações que podem ser implantadas e desenvolvidas no Tribunal de Contas do Estado de Pernambuco, com o objetivo de elevar a sua eficiência administrativa no atendimento às demandas sociais. Para identificação de um referencial de boas práticas, visando à implementação de mudanças, foi utilizada a tecnologia de gestão benchmarking. A unidade que serviu como parâmetro foi a Ouvidoria do próprio Tribunal, com realização de benchmarking interno e de processo
Resumo:
O trabalho buscou identificar e avaliar a escolha do Imip à luz da teoria neoinstitucional, mediante os mecanismos isomórficos que caracterizam o campo das organizações de saúde. Trata-se de um estudo de caso, tendo o Imip como objeto de análise, voltado especificamente para dois modelos de informatização da operação e da gestão, a fim de verificar qual o mais adequado para as especificidades da instituição, incluindo o aspecto financeiro, custo/benefício. O primeiro modelo se refere a um sistema próprio de informatização; o segundo a um modelo de sistema de gestão já existente, comercializado por empresa especializada nesta tecnologia. A metodologia abrangeu pesquisas bibliográficas, documentais e de campo. O referencial teórico foi a teoria neoinstitucional e o trabalho de campo constou de uma pesquisa incluindo observação simples, visando compor variáveis dos dois modelos avaliados, e coleta de dados realizada por meio da aplicação de dois questionários: um questionário aberto, com os dirigentes do Imip, e um questionário misto, com cem colaboradores, utilizadores do sistema, escolhidos aleatoriamente, por sorteio. Entre os achados se identificou claras referências ao isomorfismo, principalmente o mimético, nas percepções dos indivíduos respondentes. Ao final da pesquisa, foi possível concluir que a contratação de um sistema de gestão hospitalar, já existente no mercado, concebido e comercializado por empresa de tecnologia especializada no segmento da saúde, justificou-se como a melhor escolha para a organização, pois, as semelhanças existentes entre os processos do Instituto e aqueles contidos no sistema eram muito mais relevantes que suas particularidades. Outro fator relevante levou em consideração os elevados custos para uma única instituição desenvolver e manter sozinha um sistema atualizado segundo as exigências normativas e técnicas necessárias às organizações de saúde e os padrões de qualidade da informação estabelecidos pelo SUS.
Resumo:
A demanda por aplicações de workflow tem crescido rapidamente. Por um lado há uma evolução em ambientes com plataformas de sistemas maduras e disseminadas, por outro, processos de redesenho administrativo têm contribuído no aumento desta demanda. Apesar disto, profissionais de TI ainda encontram alguns problemas, e por isto, têm se aproximado de workflow com receio. Na administração pública de Porto Alegre, a otimização dos processos organizacionais de atendimento às demandas individuais dos cidadãos - que geram um registro em papel que constitui o que se denomina processo administrativo ou expediente, ou seja, um volume físico de papéis tramitando manualmente pelas estruturas que atuam no atendimento da demanda - redundou no emprego de ferramentas de automação para introduzir maior produtividade e eficiência na mudança dos métodos de trabalho. Mas alguns problemas se destacaram quando foi iniciado o desenvolvimento de aplicações de automação de processos. Uma face deles se mostrou em problemas conceituais que vão desde a confusão entre workflow e outras áreas, como BPR ou GED, à falta de domínio sobre as abstrações fundamentais na elicitação de workflow. Outra face se mostrou nos WMS, verdadeiros ambientes proprietários, fechados e pesados, de difícil utilização e pouco flexíveis para os desenvolvedores utilizarem em seu ambiente. Finalmente, outro problema foi a integração de aplicações de workflow com sistemas de informação, buscando informações e eventos em aplicações legadas, algumas existentes por décadas. Frente a isto, este trabalho aborda a produção de workflow sob a ótica dos desenvolvedores - analistas, projetistas e programadores - que necessitam criar aplicações corporativas em seus ambientes de Engenharia de Software. Neste cenário, a linha divisória entre a elaboração de uma aplicação de workflow e um sistema de informação se torna tênue, e compreender os aspectos envolvidos, dominá-los e utilizá-los neste ambiente é primordial para o sucesso e disseminação de aplicações de automação de processos. Este trabalho propõe uma extensão do Diagrama de Atividades da UML para modelar e elicitar o controle de atividades, a criação de um motor de workflow para executar a máquina de estados do Diagrama de Atividades, a ser utilizado como componente na arquitetura das aplicações. A utilização do motor de workflow e do Diagrama de Atividades estendido são apresentados num case de automação de um processo da Secretaria do Planejamento Municipal da Prefeitura Municipal de Porto Alegre que atende a solicitações diretas dos cidadãos.
Resumo:
La presente tesis aborda el tema de la Visión Estratégica en el contexto de la empresa pública brasilefía, Siendo que para facilitar el análisis, la practica estratégica es evaluada en términos de Planeamiento Empresarial, Planeamiento Estratégico o Administración Estratégica según sea el caso. EI objetivo de la investigación es análizm y determinar el grado de utilización y apoyo de la referida herramienta gerencial en la optimización de la gestión cotidiana de dichas empresas públicas. Así, son analisados el nivel de suceso, las falias, así como sus oportunidades de utilización, a la luz dei referencial teórico existente y salvando las restricciones, por cuanto la mayor parte de la literatura encontrada versa sohre la empresa privada. Los resultados de la investigación, bibliográfica, documental y de campo practicadas en empresas públicas brasilefías de grande porte, tales como Compafíía Vale do Rio Doce, Petrobrás, Embratel, Eletrobrás y BNDES, muestran los diferentes grados de aplicación de la Visión Estratégica en las mismas. Siendo que su efectiva inserción en la practica gerencial, está condicionada, entre otros factores, a que se aprenda a lidiar con la variable política, y a que se trabaje ell pro de Cultura, Estructuras Organizacionales, Sistemas de Información Gerencial, Recursos Humanos para el planeamiento. Se apreció, que en la mayoría de las empresas investigadas, la Visión Estratégica cn la Gerencia y especialmcnte en el proceso de planeamicnto es rcciente pero que viene siendo inserida en la filosoFía gerencial gradual y lentamente, ganando cada vez mayor relevancia.