981 resultados para Visualização da informação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta de uma arquitetura e o modelo de um Agente de Intercâmbio Eletrônico de Dados, Agente EDI, cuja função é, permitir a troca de dados estruturados entre Sistemas de Informações Distribuídos através da Internet. A estratégia de interação dos agentes possibilita uma maneira alternativa de tratar a recuperação, o armazenamento e a distribuição de dados, permitindo assim, o desenvolvimento de um modelo de Sistema de Informações baseado em Web, igualmente proposto neste trabalho. É apresentado também o desenvolvimento do Agente EDI proposto. O qual poderá ser utilizado por entidades que necessitam disponibilizar ou recuperar dados estruturados via Web, como por exemplo: informações de produtos, listas de preços, dados cadastrais, etc. A relevância deste trabalho está no fato de apresentar uma tecnologia simples e acessível, capaz de ser implementada sem a necessidade de altos investimentos e capaz de facilitar a implementação de Sistemas Distribuídos via Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A permanente busca pelo aumento da competitividade, impulsionada pela concorrência acirrada devida à globalização dos mercados, leva as empresas a adotarem estratégias diferenciadoras para assegurarem o seu desenvolvimento. Uma das fontes mais profícuas de estratégias diferenciadoras provém de usos inovadores de tecnologias, com ênfase em Tecnologias da Informação (TI’s). O domínio e adoção destas tecnologias podem se configurar como competência essencial e mantenedora da competitividade da empresa, pela geração de diferenciais estratégicos de gestão. Há, então, a necessidade de um maior conhecimento e compreensão de uma nova dinâmica empresarial com o uso intensivo de TI’s, com os correspondentes impactos na gestão das organizações, decorrentes desta busca permanente da flexibilização, agilização e de redução de custos como diferenciais competitivos. Esta pesquisa identifica os facilitadores na implantação de um método de gestão empresarial baseado no uso intensivo de nova TI’s. É um estudo de caso de uma empresa que atua no segmento de construção civil, no estado do Paraná, que o implantou. A pesquisa é do tipo qualitativa, utilizando-se para a coleta de dados da técnica de entrevista em profundidade aplicada a todos os membros da empresa. As conclusões desta pesquisa indicam a existência de características, fatores e elementos, atuando como facilitadores estratégicos para a implementação da gestão baseada em TI's, e para a empresa poder usufruir de agilidade e segurança nas interações e comunicações. Por sua vez a independência e flexibilidade de locais físicos e de horários, para a operacionalização deste novo método de gestão, geram a necessidade de desenvolvimento de um novo perfil do trabalhador, com a possibilidade do profissional trabalhar de modo mais auto-suficiente e a qualquer tempo e em qualquer lugar, o que supõe facilitadores individuais, inerentes aos indivíduos. A implantação de métodos de gestão com o uso intensivo de TI’s, conduz a significativas alterações de rotinas, acarretando em vantagens e desvantagens para a empresa, que também foram explicitadas e descritas nesta pesquisa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Tecnologia de Informação (TI) é considerada hoje fator determinante na busca do sucesso empresarial. Entretanto, nem sempre os gestores das organizações têm essa visão como foco estratégico, a fim de, efetivamente, tirarem proveito dos benefícios dessa ferramenta. Supõe-se que especialmente as pequenas empresas, que, por natureza, apresentam fragilidades particulares, apresentam esta característica. Assim, o presente estudo tem como tema central a TI em Pequenas Empresas, objetivando identificar o perfil da TI utilizada em indústrias de pequeno porte da região do Vale do Taquari; verificar com que intensidade um grupo de problemas se manifesta nestas organizações quando adotam novas TI, bem como verificar a ocorrência (ou não) de um conjunto de ações decorrentes, sua intensidade e grau de sucesso. Para tal, utilizou-se o método de pesquisa survey, através de uma pesquisa descritiva de corte transversal. Foram realizadas entrevistas com 36 gestores de TI ou empresários de indústrias de pequeno porte do Vale do Taquari, tendo como base um instrumento originário de uma pesquisa americana (Benamati, Lederer e Singh, 1997), traduzido e adaptado para o contexto brasileiro, testado e validado. Obteve-se como resultado principal o perfil da TI existente nas organizações pesquisadas. Pôde-se concluir que a TI está, de certa forma, ainda incipiente nestas pequenas indústrias, cumprindo, muitas vezes, papel secundário como ferramenta de auxílio na automação de processos internos. Também se verificou que a incidência de problemas decorrentes da adoção de novas TI é pouco percebida nas organizações, sendo manifestado apenas um pequeno número de problemas como relevante, ao passo que diversas ações são tomadas para a resolução dos problemas, normalmente, bem sucedidas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho investiga o impacto da adoção e da implementação de um Sistema Integrado de Gestão em uma empresa do setor elétrico brasileiro, Companhia Estadual de Energia Elétrica – CEEE. Os Sistemas Integrados de Gestão – SIG´s – compõem um novo conceito para a gestão de informação nas organizações. Esses sistemas prometem a integração de todos os fluxos de informações internos e externos a uma organização. A busca da efetiva integração dos negócios levou inúmeras empresas a implementarem os SIG´s. Como a expectativa de resultados é significativa e os investimentos envolvidos são elevados, a avaliação é uma importante etapa da implementação deste tipo de sistema nas empresas. O objetivo do trabalho é avaliar se a implementação do sistema empresarial Synergia trouxe alteração na eficiência operacional da CEEE. O método de avaliação baseou-se em duas dimensões: utilidade e satisfação pelo usuário. Para avaliação da utilidade do sistema, outras três subdimensões foram estabelecidas: a) impacto nos fatores críticos de sucesso da empresa; b) impacto nos processos; c) impacto nos indicadores de desempenho. Com base em um referencial teórico centrado nas características destes sistemas e nos métodos de avaliação que enfatizam as questões mais significativas a serem consideradas na implementação desses projetos, a pesquisa revelou aspectos da implementação e deficiências do software que conduziram ao insucesso do projeto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta tese é elaborar e testar um modelo para análise de organizações que operem em espaço cibernético. O trabalho faz uma revisão da literatura do contexto evolutivo das formas organizacionais, buscando a melhor visualização do ponto de inserção da Organização Virtual na teoria da Administração. Após esta revisão de literatura, preliminarmente à apresentação do modelo teórico para análise da Organização Virtual, trabalha-se sobre o conceito de Espaço Cibernético, explicitando os fundamentos teóricos que regem as ações e relações estabelecidas nas grandes redes atuais de computadores. A Internet é usada como exemplo de Espaço Cibernético. O estudo mostra algumas das principais características do Espaço Cibernético, o qual, sendo um espaço sistêmico, tem propriedades que se entrelaçam e interagem. Como, no âmbito da Administração, tais características podem ser exploradas? A resposta é delineada no esboço da Organização Virtual, cujo conceito é revisado. A resposta é delineada no esboço da Organização Virtual, cujo conceito é revisado. Suas características estruturais são: a existência de funções ativas sem funcionários, o resgate da confiança, a existência de fluxos distintos de autoridade, o cruzamento dos fluxos de informação e a integração entre atividades administrativas e operacionais. Suas características funcionais são: a existência de processos virtualizados, o pequeno porte físico, a proximidade ao mercado, a flexibilidade de resposta, o ciclo de produção abreviado, a fractalidade, a confiabilidade e o aprendizado organizacional. O modelo teórico de análise da Organização Virtual foi testado a campo em estudo de múltiplo caso. Os resultados indicam a aplicabilidade e adequação do modelo proposto, confirmando a emergência da organização Virtual no Espaço Cibernético.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de programação de recursos é parte do planejamento e controle da produção e possui grande importância para o desempenho de empreendimentos de construção. Constitui-se numa atividade multifuncional, envolvendo a direção da empresa e seus departamentos de marketing, finanças, recursos humanos e suprimentos. Sua ineficácia tem sido identificada como responsável por muitos dos problemas relacionados à dilatação do prazo de execução do empreendimento, ao desperdício de recursos e à baixa produtividade da mão-de-obra. Considerando que o desempenho da programação de recursos está fortemente relacionado à quantidade e qualidade das informações que a suportam, o presente trabalho tem como objetivo a proposição de um método de intervenção direcionado ao sistema de informação deste processo. O método proposto divide-se em duas etapas: o diagnóstico inicial do sistema de informações e, posteriormente, o planejamento e implantação de ações de melhoria. O método foi aplicado em estudos de caso realizados em empresas de pequeno porte, nas quais foi implementada a programação formal de recursos, sendo constatada a mudança de atitude dos funcionários frente aos processos de planejamento da produção e programação de recursos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem como tema o impacto da adoção de novas Tecnologias de Informação (TI) nas organizações. O objetivo foi verificar com que intensidade um conjunto de problemas se manifesta quando as organizações adotam novas TI, bem como a intensidade e o sucesso de um conjunto de ações para enfrentar estes problemas. Além disso, buscou-se levantar a situação das organizações em relação à utilização de TI. O método utilizado para se alcançarem os objetivos foi uma pesquisa do tipo survey, realizada de setembro a dezembro de 2000 com grandes empresas da região metropolitana de Porto Alegre. Os dados foram coletados através de entrevistas pessoais com gerentes de TI. Ao final, chegou-se a uma amostra de 91 empresas, de um total de 164 originalmente contatadas, ou seja, atingiu-se 55,5% da população. A partir da análise de dados, obteve-se um diagnóstico da TI utilizada no período pelas grandes empresas da região metropolitana de Porto Alegre. Este diagnóstico foi comparado com os diferentes ramos de atividade das organizações e com as diferentes faixas de orçamento anual de Sistemas de Informação. Em relação aos problemas, fez-se um levantamento dos que ocorreram com maior intensidade, considerando-se as maiores médias. Para as ações (ocorrência e sucesso) fez-se uma análise considerando-se também as maiores médias de intensidade de ocorrência e maiores médias de intensidade de sucesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As tecnologias que criaram as ferrovias, a concentração de mercados urbanos, o surgimento da produção em massa, a eletrificação e a introdução do motor de combustão interna compuseram uma longa cadeia de forças responsáveis pelo impacto na reestruturação dos negócios, na economia política como um todo e, naturalmente, na relação do homem com o seu trabalho. A tecnologia da informação (TI) pode ser considerada a mais recente e influente das tecnologias inseridas na sociedade, trazendo consigo uma série de impactos bem como a necessidade de pesquisas para o melhor entendimento desse novo fenômeno. O presente estudo teve como objetivo avaliar a percepção de bancários em relação ao impacto da TI sobre seu trabalho. Para tanto, foi adaptado e validado para o contexto brasileiro um instrumento de pesquisa criado por Torkzadeh e Doll capaz de medir a percepção do usuário em relação ao impacto da TI sobre seu trabalho individual e, para ampliar os estudos sobre o impacto da TI, foi elaborada e validado um instrumento de avaliação do impacto da TI sobre o processo decisório individual. A pesquisa classifica-se como um estudo exploratório descritivo, utilizando o método estatístico no que se refere à obtenção, ao processamento e à validação dos dados. A coleta de dados obedeceu à concepção dos estudos transversais, ao passo que a estratégia para a obtenção dos mesmos baseou-se na realização de 411 entrevistas com funcionários do banco que se encontravam trabalhando, durante o período da pesquisa (dezembro de 2002), na rede de agências ou na sede administrativa de dez capitais brasileiras, selecionadas para esta survey. A presente pesquisa obteve como resultado do instrumento adaptado de Torkzadeh e Doll (1999) uma significante diferença estatística entre as médias das variáveis de análise e confirmou a percepção de que a TI causa impacto em primeiro lugar na produtividade; em segundo, na satisfação dos clientes; em terceiro, no controle gerencial; e, por último, na inovação. O instrumento sobre processo decisório demonstrou uma diferente e maior percepção de impacto da TI sobre a fase denominada concepção e uma semelhante e menor percepção de impacto sobre as demais fases do processo (implementação, inteligência e escolha).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informação é hoje um dos principais recursos nos ambientes de trabalho. A informação compreendida habilita as pessoas e as organizações a atingir seus objetivos e a adquirir conhecimento. Entretanto, pouco se sabe sobre como a informação é utilizada e como os trabalhadores de conhecimento aprendem durante a realização de suas atividades. Entender a natureza do trabalho de conhecimento e torná-lo produtivo é um desafio. Esta pesquisa analisa os modelos conceituais de processo de trabalho de conhecimento encontrados na literatura, que identificam formas de aumentar a produtividade do trabalhador mapeando os estímulos do ambiente externo e observando as atividades realizadas e os resultados produzidos. Entretanto, os modelos dão pouca atenção ao processo cognitivo utilizado pelo trabalhador de conhecimento. Nesta pesquisa, propõe-se a ampliação dos modelos existentes, contemplando a atividade cognitiva no processo e o conhecimento no resultado. A abordagem é baseada na utilização da informação como recurso e como produto. Os objetivos deste trabalho são compreender melhor a forma como é utilizada a informação por trabalhadores de conhecimento e verificar como diferentes níveis de complexidade de informação influenciam o processo de trabalho e os resultados produzidos. Para testar os componentes do modelo proposto, bem como as suas relações, foi realizado um experimento com analistas de investimento que, a partir de um cenário, avaliam uma empresa. Os resultados obtidos revelaram a aderência do modelo conceitual proposto à realidade. Tanto no modelo como na atividade investigada, o processo de trabalho mostrou-se complexo e dinâmico, onde o uso e a produção de informações foi constante. O mapeamento do processo de análise de investimentos identificou o foco do trabalho na capacidade do analista gerenciar as informações e produzir conhecimento. A complexidade das informações foi identificada como um fator de influência sobre o seu uso e sobre o desempenho do analista, mas condicionadas a que essas informações fossem antes interpretadas e percebidas como relevantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa os impactos ocorridos pela implantação da intranet em quatro unidades de informação de instituições de ensino superior da Grande Porto Alegre, especificamente a Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), as Faculdades Integradas Ritter dos Reis, a Universidade Luterana do Brasil (ULBRA) e a Universidade do Vale do Rio dos Sinos (UNISINOS). O referencial teórico engloba aspectos referentes às tecnologias da informação e do conhecimento, à globalização da informação através das redes, especialmente Internet e intranet, e à função das universidades e de suas bibliotecas na nova Sociedade da Informação e do Conhecimento. Utiliza, para o levantamento dos dados, a técnica do estudo de casos múltiplos. A coleta de dados foi feita através de instrumento de pesquisa, dividido em dois módulos e especialmente criado para tal fim. O primeiro instrumento é um questionário respondido pelos quatro bibliotecários responsáveis pelas unidades de informação investigadas, abordando dados técnicos sobre o uso de redes. O segundo é um questionário, complementado por uma entrevista semi-estruturada, aplicados a 40 bibliotecários que trabalham nestas bibliotecas, abordando dados organizacionais e humanos sobre o uso de intranet. Os dados permitem traçar o estado-de-arte do uso da Intranet nas bibliotecas pesquisadas, o perfil bibliotecário, os produtos e serviços disponíveis em rede, o comportamento dos usuários remoto e local. Levanta, também, a percepção dos profissionais quanto a aspectos como o uso de redes e as novas formas de comunicação. Conclui com a explicitação dos impactos causados pela implantação das redes informáticas e das mudanças que se estão produzindo no perfil do profissional bibliotecário. Recomenda o incremento da comunicação on line, o intercâmbio constante com usuários para detectar suas necessidades de informação e de novos produtos e serviços, o estabelecimento de políticas de gestão da informação on line, a edição e publicação de documentos multimídia e a atualização profissional dos bibliotecários pela aprendizagem contínua através de cursos de formação à distância.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A personalização de produtos e serviços e o projeto em conjunto entre empresas e clientes representam hoje um diferencial competitivo de ambientes ágeis de negócios. Esta tendência também é válida para a indústria da construção civil, onde a customização do produto é de vital importância para a satisfação do cliente, cada vez mais desejoso de um imóvel de baixo custo e com um certo nível de exclusividade. Esta pesquisa procura levar contribuições para o setor da Indústria da Construção Civil utilizando conceitos atuais como o de manufatura ágil e dando ênfase à dimensão de interação com o cliente e à personalização de produtos. Estabelecer uma interação constante entre cliente e empresa é um dos requisitos fundamentais para a definição de um ambiente ágil de negócios. Alias, considera-se importante que as empresas construtoras, em seus planos estratégicos, busquem não somente melhorar a eficiência dos processos construtivos (através de programas de qualidade e produtividade), mas também, ampliar qualitativa e quantitativamente os atributos dos imóveis ofertados através da integração do cliente ao projeto de seu futuro imóvel. O objetivo principal deste trabalho consiste em desenvolver um modelo de sistema de informação (SPAIR: Sistema de Informações para Personalização de Imóveis Residenciais) para a interação entre clientes e empresas incorporadoras e construtoras de condomínios residenciais, permitindo a incorporação de práticas de manufatura ágil a estas empresas. Para captar a visão dos potenciais usuários do sistema, foi realizado um estudo de caso em uma empresa incorporadora e construtora de condomínios residenciais, no sentido de definir o que projetistas e compradores de imóveis consideram importante em termos de personalização. A modelagem conceitual do problema em estudo foi realizada utilizando-se uma abordagem orientada a objetos. A utilização desta abordagem permitiu a implementação de um protótipo, no qual existe uma relação direta entre os eventos que ocorrem no mundo real e no sistema computacional. Um protótipo foi desenvolvido, utilizando a Web como ambiente de execução, permitindo a utilização de SPAIR por qualquer usuário conectado a Internet. Embora o sistema tenha passado por um conjunto limitado de testes de validação, os resultados obtidos demonstram o potencial do mesmo como uma ferramenta efetiva de implementação dos conceitos de manufatura ágil e customização de massa na área de construção civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo da pesquisa atém-se primeiramente em elaborar um protocolo que permita analisar, por meio de um conjunto de indicadores, o processo de reutilização de software no desenvolvimento de sistemas de informação modelando objetos de negócios. O protocolo concebido compõe-se de um modelo analítico e de grades de análise, a serem empregadas na classificação e tabulação dos dados obtidos empiricamente. Com vistas à validação inicial do protocolo de análise, realiza-se um estudo de caso. A investigação ocorre num dos primeiros e, no momento, maior projeto de fornecimento de elementos de software reutilizáveis destinados a negócios, o IBM SANFRANCISCO, bem como no primeiro projeto desenvolvido no Brasil com base no por ele disponibilizado, o sistema Apontamento Universal de Horas (TIME SHEET System). Quanto à aplicabilidade do protocolo na prática, este se mostra abrangente e adequado à compreensão do processo. Quanto aos resultados do estudo de caso, a análise dos dados revela uma situação em que as expectativas (dos pesquisadores) de reutilização de elementos de software orientadas a negócio eram superiores ao observado. Houve, entretanto, reutilização de elementos de baixo nível, que forneceram a infra-estrutura necessária para o desenvolvimento do projeto. Os resultados contextualizados diante das expectativas de reutilização (dos desenvolvedores) são positivos, na medida em que houve benefícios metodológicos e tecnológicos decorrentes da parceria realizada. Por outro lado, constatam-se alguns aspectos restritivos para o desenvolvedor de aplicativos, em virtude de escolhas arbitrárias realizadas pelo provedor de elementos reutilizáveis.