999 resultados para Computação móvel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this study is to define measures to increase customer satisfaction and company competitiveness using a remote monitoring technology, in an exploratory study of Alpha Elevator Company (nick name chosen to the company by the actor of the dissertation). Regarding the competitive market, the service industry is striving to achieve productivity, following the example of the manufacturing industry. Nevertheless, these efforts are limited by the amount of hours worked per week, month or year, since the sector charges its services based on the hours spent working on the equipment of the client or based on the numbers of visits. This study is based in the overcoming of the traditional paradigm of selling number of hours by a system of selling results and performance. Employing a remote monitoring system, the elevators under the company service are monitored continually and defects are detected and transmitted to the customer care center, via phone line. The customers can access this data through the Internet and obtain information like availability rate of their elevators and call back response time rate, besides being able to buy products on the company¿s home page and to send feedback. The results were obtained by participating in conferences among experts of the company, in Japan and the United States. Through the analysis of the business environment and based on the bibliographic reference, a strategy was developed to implement e-service as a competitive differentiation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Após o refinamento, os critérios foram utilizados experimentalmente em três tipos de métodos de avaliação tradicionais, a saber, avaliação heurística, inspeção de conformidade e ensaios de interação. Os resultados obtidos com estas avaliações demonstraram que os critérios de avaliação, definidos neste trabalho, capturaram muito mais problemas relacionados à técnica do que os critérios tradicionalmente usados para avaliar interfaces gráficas. Um resultado promissor, não previsto, foi a constatação que o conjunto de critérios propostos detectaram, também, um número expressivo de problemas de usabilidade na interface, quando da aplicação das sessões de avaliação heurística. Este resultado evidencia a possibilidade de extensão deste conjunto de critérios a fim de avaliar, também, as principais características da interface das técnicas de visualização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve uma proposta para a representação geométrica de imagens. Através da subdivisão espacial adaptativa de uma imagem em triângulos, uma representação simplificada da estrutura da imagem pode ser obtida. Demonstramos que a representação gerada é adequada para aplicações como a segmentação e a compressão de imagens. O método de segmentação de imagens desenvolvido faz uso deste tipo de representação para obter resultados robustos e compactos, comparados a outros métodos existentes na literatura, e adequado para aplicações como a detecção, descrição e codificação de objetos. Utilizando uma representação geométrica semelhante a métodos de modelagem de superfícies, criamos um novo método de compressão de imagens que apresenta vantagens em relação a outros métodos existentes, em especial na compressão de imagens sem perdas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na busca por métricas de marketing que tenham ligação com os componentes atitudinais e comportamentais do cliente, é essencial aprofundar a compreensão sobre os antecedentes da lealdade do cliente – a chave para o crescimento organizacional. A satisfação é um antecedente reconhecido da lealdade, mas depender apenas de sua gestão para a retenção de clientes pode ser ineficaz, dada a falta de visão de mecanismos que levam a clientela a permanecer leal a um fornecedor mesmo quando insatisfeita. Estes mecanismos são os chamados custos de mudança. Assim, esta dissertação testa a influência destes dois constructos – satisfação e custos de mudança – como antecedentes da lealdade. Para tanto, foi conduzida uma pesquisa survey, tendo como campo de estudo a indústria de telefonia móvel celular. Como resultado, verificou-se que tanto a satisfação quanto os custos de mudança têm impacto positivo na lealdade. Ainda, confirmando estudos prévios, a magnitude do impacto dos custos de mudança na lealdade é maior que a da satisfação. Os resultados são discutidos, bem como as implicações acadêmicas e gerenciais obtidas. Ao longo das análises, são feitas sugestões para estudos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o surgimento dos telefones celulares foi uma grande revolução nas telecomunicações, pois as pessoas poderiam se comunicar de qualquer lugar, mesmo em movimento. No entanto, a grande demanda obrigou a criação de novos sistemas digitais de telefonia, com mais qualidade nas ligações, capacidade de transmissão de voz, dentre outros. Posteriormente, surgiu uma demanda que não queria apenas mais qualidade, mas também a disponibilização de serviços disponíveis a partir do celular. Isto originou o uso da tecnologia WAP. Focalizando o estudo no mercado brasileiro, a tecnologia WAP foi anunciada como a responsável por trazer a Internet utilizada nos computadores convencionais diretamente para o celular. Entretanto, diversos problemas relativos ao uso e custo desta tecnologia indicaram claras desvantagens da Internet no celular em comparação com a Internet convencional. Isto tomou a tecnologia W AP um fracasso de crítica no Brasil. Esta dissertação busca comprovar o fracasso da la versão da tecnologia W AP - W AP 1.0 - e a participação dos modelos de negócios utilizados na derrocada desta tecnologia no mercado brasileiro de telefonia celular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal a avaliação da percepção dos profissionais de tecnologia de informação quanto aos benefícios atribuídos a arquitetura orientada a serviço (SOA). Em busca deste objetivo, e visando uma melhor compreensão do tema, estudos teóricos foram desenvolvidos abordando os seguintes assuntos: Arquitetura de Software, Gerenciamento de Processos de Negócio (BPM) e Arquiteturas Orientadas a Serviços (SOA). A partir do referencial teórico e de um grupo de foco – composto por seis profissionais experientes em SOA – oito hipóteses foram levantadas, representando os principais benefícios atribuídos a estas arquiteturas. Um questionário foi então preparado e, a partir dele, 66 respostas válidas foram obtidas. Os resultados foram analisados utilizando-se de estatísticas descritivas e dos testes estatísticos não-paramétricos de Wilcoxon e qui-quadrado, buscando a validação, ou rejeição, das hipóteses apresentadas. Como resultado, em suma, percebe-se que, apesar da recente adoção das SOAs pelas empresas brasileiras, parece haver uma consonância entre seus profissionais de TI quanto aos benefícios desta nova abordagem para projetos de tecnologia da informação. Evidencia-se também a grande importância de disciplinas como governança e planejamento para a garantia do sucesso na implantação de projetos baseados nestas arquiteturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: Avaliar a correlação do volume de pulmão com densidade anormal através da Densitovolumetria (DV) com características clínicas e testes de função pulmonar em crianças com Bronquiolite Obliterante (BO). Métodos: Realizou-se um estudo transversal em 19 crianças, com idade entre 7 e 15 anos, com diagnóstico clínico-evolutivo e tomografia de tórax característicos de BO. Foram excluídas ou-tras doenças que cursam com obstrução ao fluxo aéreo. Todas as crianças fizeram o Teste da cami-nhada de seis minutos com monitorização da saturação de oxigênio da hemoglobina. A espirometria foi feita em repouso, após o Teste da caminhada e após a administração de broncodilatador. A Den-sitovolumetria foi realizada em um tomógrafo computadorizado helicoidal de pista simples, marca Toshiba, modelo Xvision EX, com pós-processamento de imagem em estação de trabalho O2 da Si-licon Graphics, com programa de computação Alatoview®. Cada paciente foi submetido a 9 aquisi-ções tomográficas eqüidistantes de alta resolução e a duas varreduras helicoidais, cobrindo toda a extensão do tórax em pausa da respiração no final da inspiração e expiração profundas. Para separar parênquima normal de parênquima com diminuição de atenuação utilizou-se o limiar -950 UH e um outro limiar escolhido de forma subjetiva pelo radiologista Resultados: O volume de parênquima pulmonar com densidade anormalmente baixa na inspiração variou de 0,03 a 8,67 % e, na expiração, de zero a 7,27% do volume pulmonar total. O volume de pulmão hipoatenuado teve boa correlação com os testes de função pulmonar; na inspiração com VEF1% (r= -0,56) e com VEF1/CVF%(r= -0,75). O percentual de zonas hipoatenuadas na inspiração apresentou correlação com VEF1%(r= -0,64) e com VEF1/CVF%(r= -0,71). Na expiração, houve correlação com VEF1% (r= -0,50) e não houve com o VEF1/CVF%. Na comparação com o previsto em adultos, a correlação foi melhor na inspiração. A saturação de oxigênio em repouso não apresentou associação com o volume de áreas hipoatenuadas, enquanto que a saturação mínima durante o exercício apresentou correlação negativa forte com o volume de zonas com hipoatenuação na inspiração (r= -0,60) e na expiração (r= -0,61). Os pacientes com volumes pulmonares maiores percorreram uma distância maior (r=0,53), e a distância percorrida não foi afetada significativamente pelo volume de áreas hipoatenuadas. Conclusão: Em crianças com BO, o volume de zonas hipoatenuadas correlaciona-se com o VEF1% e VEF1/CVF% e com a queda na saturação durante o exercício, mas não se correlaciona com a saturação em repouso e a distância percorrida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização da abordagem de agentes, nas mais diversas áreas de aplicações, mostra o interesse nas pesquisas sobre sistemas multiagentes. Este interesse surgiu da necessidade de aplicar novas técnicas e conceitos para a construção de sistemas e para auxiliar no seu desenvolvimento. Neste sentido, os agentes satisfazem às expectativas, não sendo apenas utilizados para a solução de problemas acadêmicos, mas também de sistemas reais. Na ciência da computação, a inteligência artificial distribuída está profundamente relacionada com o problema de coordenação. O objetivo é projetar mecanismos de coordenação para grupos de agentes artificiais. Várias características envolvem a atuação de agentes em um ambiente multiagente, como os mecanismos de cooperação, coordenação, comunicação, organização, entre outros. Este trabalho apresenta um estudo sobre coordenação multiagente, enfatizando a sua avaliação. O objetivo é apresentar uma proposta de avaliação, com um conjunto de critérios definidos para serem aplicados em modelos de coordenação. Inicialmente, é apresentado um estudo sobre coordenação de agentes. A seguir, são abordados vários modelos de coordenação encontrados na literatura da área. A parte principal do trabalho corresponde à definição de critérios para avaliação da coordenação, a serem utilizados em duas etapas: uma análise do problema, com vistas à escolha de um modelo de coordenação a ser empregado em uma determinada aplicação, e uma avaliação a posteriori, baseada nos critérios propostos para avaliar o comportamento de um sistema coordenado após o uso de um modelo de coordenação específico.Para exemplificar a aplicação dos critérios, dois estudos de caso são apresentados e foram utilizados para os experimentos: um referente ao domínio da Robocup, utilizando o Time UFRGS e, outro, referente ao gerenciamento de agendas distribuídas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar um modelo eficiente de representação de conhecimento que é construído a partir de relações de causa e efeito entre percepções e ações. Assume-se que é possível perceber o ambiente, é necessário fazer decisões mediante incerteza, é possível perceber a realimentação (feedback) referente ao sucesso ou fracasso das ações escolhidas, e é possível aprender com a experiência. Nós descrevemos uma arquitetura que integra o processo de percepção do ambiente, detecção de contexto, tomada de decisão e aprendizagem, visando obter a sinergia necessária para lidar com as dificuldades relacionadas. Além da descrição da arquitetura, é apresentada de forma sucinta uma metodologia chamada Computação Contextual, composta por duas fases principais: Definição e Operação. A fase de Definição envolve o projeto e modelagem de: i) Os subespaços de conhecimento conceitual e canônico; e ii) As regras de crescimento dinâmico. A fase de Operação complementa (isto é, estende e adapta) as definições iniciais através da aprendizagem feita pela interação com o ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comércio eletrônico é uma força que promete mudar definitivamente o cenário das empresas e seu relacionamento com clientes, fornecedores e parceiros. De olho no crescimento explosivo da Internet e da Web, as empresas estão aprendendo a utilizar o comércio eletrônico em seus processos de negócio tanto quanto nas suas estratégias de integração interna e externa. Os bancos têm, desde há muito, estado entre as empresas que mais investem em tecnologia de informação para apoiar os seus processos de negócio, buscar a eficiência empresarial e aumentar a qualidade dos seus serviços. Tendo suas origens na convergência tecnológica entre a computação e a telecomunicação, o comércio eletrônico abre um leque de oportunidades aos bancos que há muito buscam alternativas para oferecer aos seus clientes a possibilidade de operar serviços bancários remotamente, sem a necessidade de deslocamento até Uma agência. Mas a importância da evolução do comércio eletrônico para os bancos é ainda maior se for considerado que não há comércio sem pagamento e os bancos são os principais responsáveis pela manutenção de um sistema de pagamento confiável e versátil. Portanto, a crescente utilização da Web e da Internet pelos bancos implica também na consolidação do comércio eletrônico, tanto pela sua importância no controle dos meios de pagamento quanto na confiabilidade que transmitem aos usuários dos sistemas eletrônicos de transferência de valor. Este trabalho tem como objetivo estabelecer critérios para avaliar a evolução do comércio eletrônico nos serviços bancários e a difusão do uso da Web entre os bancos. A partir da observação de que os bancos podem utilizar a Web para divulgar informação, distribuir produtos e serviços e melhorar o relacionamento com os clientes, foram realizadas pesquisas através de análises em Web sites, questionários e entrevistas, para caracterizar o ritmo, a direção, os determinantes e as implicações da evolução do uso da Web entre os bancos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As organizações públicas vêm ampliando a oferta de serviços on-line ao cidadão, tanto devido as demandas explícitas da comunidade quanto por comparação com o setor privado. Isso traz questões próprias a serem enfrentadas e resolvidas no planejamento, projetos e implementação desses serviços eletrônicos, particurlamente quando eles são oferecidos via web. São questões que vão da visão estratégica da presença na internet ao redesenho radical dos processos de negócio. Este trabalho pretende aprofundar o entedimento de como os governos estaduais ou municipais brasileiros, por suas secretarias de finanças ou de fazenda, vêm utilizando a internet para marcar suas presenças institucionais, colher e dar informações, conhecer e relacionar-se com o seu público-usuário, alavancar seus processos de negócio e oferecer serviços eletrônicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trata do uso dos dados pessoais integrado aos serviços digitais (e-services), criando um ambiente único para gerenciamento e uso destes, denominado de solução de base de dados pessoal. Além de descrever e caracterizar o ambiente e os componentes desta nova solução, são discutidas ações e desenvolvimentos requeridos para os seus principais habilitadores: humanos, tecnológicos e empresariais

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.