1000 resultados para Sistemas de informação empresariais
Resumo:
- Introdução - Sistemas actuais - Galileo - Comparação - Aplicabilidade - Futuro - Referências
Resumo:
Não é novidade que o paradigma vigente baseia-se na Internet, em que cada vez mais aplicações mudam o seu modelo de negócio relativamente a licenciamento e manutenção, para passar a oferecer ao utilizador final uma aplicação mais acessível no que concerne a licenciamento e custos de manutenção, já que as aplicações se encontram distribuídas eliminando os custos de capitais e operacionais inerentes a uma arquitetura centralizada. Com a disseminação das Interfaces de Programação de Aplicações (Application Programming Interfaces – API) baseadas na Internet, os programadores passaram a poder desenvolver aplicações que utilizam funcionalidades disponibilizadas por terceiros, sem terem que as programar de raiz. Neste conceito, a API das aplicações Google® permitem a distribuição de aplicações a um mercado muito vasto e a integração com ferramentas de produtividade, sendo uma oportunidade para a difusão de ideias e conceitos. Este trabalho descreve o processo de conceção e implementação de uma plataforma, usando as tecnologias HTML5, Javascript, PHP e MySQL com integração com ®Google Apps, com o objetivo de permitir ao utilizador a preparação de orçamentos, desde o cálculo de preços de custo compostos, preparação dos preços de venda, elaboração do caderno de encargos e respetivo cronograma.
Estudo do impacto do tamanho máximo da carga da trama Ethernet no perfil do Tráfego IPV6 na Internet
Resumo:
A transição entre a versão 4 para a versão 6 do Internet Protocol (IP) vem ocorrendo na comunidade da Internet. No entanto, a estrutura interna dos protocolos IPv4 e IPv6, em detalhe no tamanho dos seus cabeçalhos, pode provocar alterações no perfil tráfego da rede. Este trabalho estuda as mudanças nas características de tráfego de rede, avaliando o que mudaria se o tráfego gerado fosse apenas IPv6 em vez de IPv4. Este artigo estende-se uma pesquisa anterior, abordando novas questões, mas usando os registos de dados reais disponíveis publicamente. É adotada uma metodologia de engenharia reversa nos pacotes IPv4 capturados, permitindo assim inferir qual a carga original no computador tributário e em seguida reencapsular essa carga em novos pacotes usando restrições de encapsulamento IPv6. Conclui-se que, na transição de IPv4 para IPv6, haverá um aumento no número de pacotes transmitidos na Internet.
Resumo:
As soluções informáticas de Customer Relationship Management (CRM) e os sistemas de suporte à informação, designados por Business Intelligence (BI), permitem a recolha de dados e a sua transformação em informação e em conhecimento, vital para diferenciação das organizações num Mundo globalizado e em constante mudança. A construção de um Data Warehouse corporativo é fundamental para as organizações que utilizam vários sistemas operacionais de modo a ser possível a agregação da informação. A Fundação INATEL – uma fundação privada de interesse público, 100% estatal – é um exemplo deste tipo de organização. Com uma base de dados de clientes superior a 250.000, atuando em áreas tão diferentes como sejam o Turismo, a Cultura e o Desporto, sustentado em mais de 25 sistemas informáticos autónomos. A base de estudo deste trabalho é a procura de identificação dos benefícios da implementação de um CRM Analítico na Fundação INATEL. Apresentando-se assim uma metodologia para a respetiva implementação e sugestão de um modelo de dados para a obtenção de uma visão única do cliente, acessível a toda a organização, de modo a garantir a total satisfação e consequente fidelização à marca INATEL. A disponibilização desta informação irá proporcionar um posicionamento privilegiado da Fundação INATEL e terá um papel fundamental na sua sustentabilidade económica.
Resumo:
Este documento apresenta uma introdução à educação virtual, abordando as suas principais características, as vantagens e desvantagens desta metodologia, analisando igualmente alguns exemplos de adequação em várias áreas de ensino e graus académicos. Serão igualmente apresentadas algumas reflexões sobre o uso das Tecnologias de Informação e Comunicação (TICs), do Ensino à Distância (EAD) e do E-Learning. Em particular serão analisadas as motivações, as condições e o potencial da contribuição da EAD na melhoria do ensino. Também será referenciado o E-Learning como a alternativa mais correta e adequada para este tipo de ensino. A desmotivação e a falta de relação interpessoal poderão ser um grande obstáculo a este tipo de ensino (EAD). O E-Learning vem colmatar essa desvantagem, apoiando-se nas vantagens da educação tradicional e nas do Ensino à Distância juntando-as para se tornar num ensino recorrente viável. Como caso prático será acompanhada e analisada uma experiência em curso na Universidade Lusófona, destinada a promover ensino à distância no espaço lusófono, com o objectivo de provar que promover a longo prazo a integração de alunos de outros países de língua portuguesa é definitivamente uma mais-valia para todos os intervenientes.
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
O objetivo desta tese consistiu em avaliar a influência da espacialização de propriedades físicas de bacias hidrográficas, relacionadas à topografia, ao uso do solo, à litologia e à tectônica, e os efeitos na resposta hidrológica. Tais elementos foram desagregados em unidades de resposta hidrológica através de uma estrutura vetorial, com base em técnicas de sensoriamento remoto e sistemas de informação geográfica, que facilitou a modelagem, contemplando os processos hidrológicos verticais e laterais envolvidos. Diferentes níveis de agregação e desagregação espacial alicerçaram a aplicação do hidrograma de Clark para a transformação de chuva em vazão com base nos valores da precipitação efetiva, a partir da utilização do método curva número - CN. A bacia hidrográfica do Rio Ibirapuitã, localizada no Estado do Rio Grande do Sul, Brasil, com área de 5.976 km2, constituiu o estudo de caso, cuja espacialização envolveu um pixel de um km e a utilização do conceito de hidrotopos. As características geológicas evidenciaram a incidência de rochas vulcânicas basálticas (72%), arenitos (24%) e siltito-folhelho (4%), e lineamentos tectônicos, espacializados sob a forma de freqüência, com ocorrência de 47% para a classe forte, 35% para a classe média, 12% para a classe muito forte e o restante 6 % para a classe fraca. A topografia evidenciou um relevo em que as cotas topográficas indicaram valores entre 70 e 230 m. O uso do solo é caracterizado por seis classes, com destaque para campos e pastagens que cobrem cerca de 60% da área, seguindo-se a cultura de arroz irrigado (27%) e matas (11%). Às simulações hidrológicas iniciadas com a influência da litologia, seguiram-se com a incorporação sucessiva dos efeitos da tectônica, da desagregação em duas sub-bacias, da desagregação em cinco sub-bacias. Os resultados obtidos pelas simulações hidrológicas e avaliados pelo coeficiente de eficiência R2 de Nash e Sutcliffe pelo erro médio absoluto (Mean Absolute Error – MAE) e pelos seus incrementos indicaram: a) que os efeitos da variabilidade espacial da litologia constituiu a influência mais significativa (R2 = 0,489, MAE = 0,32); b) que a tectônica foi o segundo fator em importância (R2 = 0,569, MAE = 0,25).; que a desagregação em duas sub-bacias foi a menos importante.(R2 = 0,582, MAE = 0,24); que a desagregação em cinco sub-bacias foi o terceiro fator mais importante (R2 = 0,725, MAE = 0,24).
Resumo:
O mundo vem enfrentando a transição de uma economia industrial para uma economia na qual a informação, junto com a terra e o capital, será a força motriz na criação de riquezas e prosperidade. Assim, o sucesso estratégico de muitas empresas vai depender do uso inteligente e da exploração efetiva das possibilidades inerentes à tecnologia da informação. No entanto, as empresas não têm obtido as informações com a qualidade necessária. Isso porque identificar, produzir, selecionar e gerir informações como forma de proporcionar suporte aos processos decisórios tem sido um dos grandes desafios da atualidade.O presente estudo enfoca o processo de identificação de requisitos informacionais destinados ao desenvolvimento de um sistema de apoio a decisões, através de um estudo de caso realizado na Secretaria Municipal da Fazenda do município de Porto Alegre. Ele compreende a etapa de identificação do problema a ser abordado, a definição de modelos conceituais, o mapeamento dos requisitos informacionais das principais atividades identificadas, a comparação destes modelos com os sistemas de informação existentes, e a proposição de mudanças. A metodologia utilizada foi a soft systems (SSM). A SSM é uma metodologia adequada ao tratamento de questões que em geral não se apresentam de forma estruturada. Isto é particularmente importante quando se opera em níveis acima do meramente operacional, em que a questão não é tanto ‘como fazer algo’, mas sim ‘o que deve ser feito’. O uso da SSM mostrou-se adequado e flexível o suficiente para permitir a condução de todas as etapas do trabalho de forma coerente, ao mesmo tempo em que conduziu a resultados que superaram as expectativas iniciais.
Resumo:
Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.
Resumo:
A rapidez com que as informações atualmente são processadas nas empresas, associada à necessidade de adequação às tendências impostas pelo mercado e à introdução sempre crescente de novos recursos tecnológicos, caracteriza o cenário sobre o qual deve ser analisada a escolha da estratégia de produção para alcançar competitividade. A necessidade de gerenciar a estrutura do conhecimento empresarial (aspectos internos) e sua vinculação com a formação da estratégia de produção, assim como a necessidade de empregar métodos de inteligência competitiva (captura de informações externas), são aspectos imprescindíveis a serem considerados na complexa atividade de administar as empresas na atualidade. O problema principal tratato nesta pesquisa é o de determinar a importância que a gestão do conhecimento e a inteligência competitiva assumem na estratégia de produção em curtumes, incluindo a verificação se os sistemas de informação que suportam estas atividades estão alinhados com a estratégia empresarial. Pela exploração de diversos aspectos da indústria coureira em dois estudos de caso, e principalmente relacionando os elementos observados com as possibilidades atuais de utilização dos recursos da tecnologia de informação nas áreas de gestão do conhecimento e inteligência competiva, foi observado que estas são complementares e influenciam na estratégia de produção. Complementarmente, foi constatado que os sistemas de informação, ao constituirem instrumental básico para estas atividades, necessitam estar comprometidos em suas funcionalidades com a estratégia empresarial.
Resumo:
Os anos noventa representaram, para a sociedade brasileira, o início de uma era de mudanças contínuas. Na esfera econômica, as empresas passaram a ter um ambiente competitivo como nunca visto antes. Os bancos têm investido, desde então, recursos vultosos em sistemas de informação. A popularização da Internet para as empresas e o cidadão comum, ocorrida também neste período, criou um novo ambiente competitivo de marketing, levando os bancos a investirem pesadamente neste novo canal de distribuição. A Caixa Econômica Federal, um dos maiores bancos brasileiros, fez elevados investimentos na área de Internet, permitindo a seus clientes realizarem a maioria de suas operações domésticas a partir de qualquer computador. Apesar de ser uma forma rápida e barata de resolver os problemas de serviços bancários, muitos clientes não o utilizam, e, entre os que utilizam, muitos não o fazem com freqüência. Para entender melhor este problema, foi realizado uma pesquisa de cunho exploratório para analisar o comportamento dos usuários de Internet Banking da Caixa Econômica Federal, identificando quais atributos podem ser utilizados pela empresa para aumentar a utilização deste tipo de serviço. Este trabalho foi realizado com clientes de três agências de Porto Alegre (São João, Mont Serrat e Shopping Iguatemi), ao longo de 2.001. As principais conclusões deste trabalho são de que, para aumentar o acesso é necessário resolver dois problemas: primeiro, é necessário maior estímulo da mídia para persuadir os clientes a se habituarem com o novo sistema. Segundo, é necessário treinar os clientes, para que tenham mais facilidade no uso da Internet, ainda complicada para muitos.