112 resultados para Computação assistiva
Resumo:
A intensa utilização da tecnologia da informação (TI) por todos os setores disseminou-se também na Administração Pública. A utilização da TI aliada à internet como ferramenta de gestão pública é denominada governo eletrônico e tem como objetivos qualificar melhor a prestação dos serviços e possibilitar aos cidadãos uma participação mais efetiva no processo político. O presente estudo buscou investigar o contexto do governo eletrônico no Brasil e apresenta um modelo de adoção baseado numa iniciativa de informatização de mecanismos de controle fiscal do Estado de São Paulo. O objetivo geral da tese foi estudar quais são os elementos que influenciam a utilização do governo eletrônico no Brasil, por meio de um estudo no programa Nota Fiscal Paulista (NFP). A metodologia envolveu técnicas do método qualitativo, pelo uso de opiniões de especialistas, associadas a procedimentos do método quantitativo, por meio de um survey aplicado em 715 usuários da NFP. A análise utilizou modelagem por equações estruturais. Os resultados contribuem para as pesquisas em TI, apresentando um modelo que reforça e amplia os estudos anteriores sobre adoção tecnológica e os estudos de governo eletrônico, acrescentando um modelo em um novo contexto ainda pouco explorado. No caso da NFP, os fatores testados e que influenciam no processo de adoção são: Benefício Percebido, Facilidade de Uso Percebida, Influências Sociais, Segurança Percebida, Confiança e Hábito. Em termos práticos, a pesquisa auxilia na compreensão da participação e do envolvimento dos cidadãos na fase atual de desenvolvimento de governo eletrônico no Brasil. Com melhor esclarecimento da influência dessa tecnologia na vida pessoal e profissional dos usuários, é possível elevar a qualidade da prestação dos serviços para atender às demandas da sociedade. Isto posto, auxilia também na implantação mais rápida do programa em outros contextos administrativos para o governo eletrônico, gerando informações úteis para os principais pontos a se considerar para ampliar a adesão dos cidadãos e ter mais chance de sucesso na implantação.
Resumo:
Este tese analise as implicações dos investimentos em tecnologia de informação e comunicação (ICT) em países ainda em desenvolvimento, especialmente em termos de educação, para estimular a implementação de uma infra-estrutura mais moderna em vez da continuação do uso de métodos tradicionais. Hoje, como o interesse e os investimentos em ICT estão crescendo rapidamente, os módulos e as idéias que existem para medir o estado de ICT são velhos e inexatos, e não podem ser aplicados às culturas de países em desenvolvimento. Políticos e investidores têm que considerar estes problemas quando estão pensando em investimentos ou socorros para programas em ICT no futuro, e investigadores e professores precisam entender os fatores importantes no desenvolvimento para os ICTs e a educação antes de começar estudos nestes países. Este tese conclue que investimentos em tecnologias móbeis e sem fios ajudarem organizações e governos ultrapassar a infra-estrutura tradicional, estreitando a divisão digital e dando o resulto de educação melhor, alfabetização maior, e soluções sustentáveis pelo desenvolvimento nas comunidades pobres no mundo de países em desenvolvimento.
Resumo:
Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
Resumo:
Com a crescente utilização das ferramentas de comunicação digitais, emergem as discussões em torno de um arcabouço regulatório que possa, ao mesmo tempo, lidar com as necessidades de proteção dos usuários da internet e promover a inovação e o acesso ao conhecimento. Dada a novidade do tema, diferentes caminhos foram trilhados no Brasil: da ausência de regulação para a construção de novos tipos penais à posterior evolução para a construção de um quadro de direitos civis para a rede mundial de computadores no país. Sendo assim, esta dissertação busca explorar de que forma a agenda brasileira de regulação da internet adentra a agenda governamental e quais os principais atores presentes nessa discussão, dentro e fora do governo. Esta pesquisa busca reconstruir, por meio da análise documental e de entrevistas, as discussões em torno do tema da regulação da rede e investigar a influência do contexto político e institucional para a formação dessa agenda. Além disso, procura investigar quais as principais visões e ideias dos grupos atuantes em torno da regulação da internet e quais os resultados na proposição de leis no Congresso. Essa dissertação é baseada em um estudo de caso único, cujo objeto é o Projeto de Lei do Marco Civil da Internet. A metodologia empregada é qualitativa, realizada por meio de entrevistas semiestruturadas com a equipe do governo federal que participou da formulação do projeto de lei, com atores da sociedade civil atuantes no tema, além de atores-chave do Congresso Nacional. Espera-se, a partir daí, reconstruir historicamente o processo de formulação da agenda de regulação da internet, mapeando os seus principais atores e suas ideias, valores e interesses em torno da questão, buscando compreender de que forma esse tema adentra a agenda governamental.
Resumo:
O Brasil é um dos principais atores do novo ambiente econômico mundial, mas para permanecer atrativo, deve fazer progressos significativos no campo das Tecnologias de Informação e da Comunicação (TIC). Assim, um serviço de internet banda larga é primordial para o desenvolvimento de regiões distantes, geralmente de baixa renda e que não têm acesso a instalações de telecomunicações, nem aos serviços de internet banda larga. De fato, a penetração da banda larga no Brasil apresenta situação inferior à média mundial e boa parte da população ainda está excluída do mundo digital por causa das desigualdades sociais e as dimensões continentais do país. Para preencher esta lacuna, o governo federal lançou, em 2010, o Programa Nacional de Banda Larga (PNBL). No entanto, a penetração de banda larga permanece em níveis baixos, mesmo em grandes centros urbanos e com uma distribuição regional desigual, especialmente quando comparados internacionalmente. As concessionárias não estão desempenhando o seu papel de universalização dos serviços de banda larga e as pequenas e médias operadoras podem desempenhar um papel fundamental na promoção desse objetivo. Esse trabalho tem o propósito de investigar se é possível conciliar o modelo vigente de telecomunicações regido pela Lei Geral das Telecomunicações (LGT) com a universalização dos serviços de banda larga, desde que apoiado num mercado competitivo e menos concentrado, com pequenas e médias operadoras. Como verificação, foi feito um trabalho empírico com base em entrevistas semiestruturadas com profissionais de telecomunicações do setor público e privado, assim como uma análise de padrão de codificação dessas entrevistas. Os resultados mostram, porém, que o ambiente regulatório atual pode gerar incentivos à operação de qualidade nas áreas remotas e de baixa renda, mas não de forma generalizada. A universalização requer uma mudança estrutural do modelo e é a política pública federal que deve dar as diretrizes, com objetivos claros. Tampouco há modelo ideal de regulação, mas um entorno regulatório adequado pode ser motor de desenvolvimento do setor. O estabelecimento de compromissos entre os atores também é fundamental, assim como a decisão política na origem, dando suporte para o planejamento e projetos de longo prazo. E é a partir dessa decisão que se desenvolvem as medidas regulatórias de competição e fiscalização que vão garantir a execução do que foi previsto e desenhado.
Resumo:
In this thesis I investigate the extent to which companies can build a more communal environment out of their fan pages while also evaluating the corresponding brand value that may come from having such a communal environment. My research is comprised in three articles: in the first article, I describe how the brand image is created or augmented in the fan page environment, therefore providing demonstrable evidence of value creation. In the second article, I describe how individuals use fan page semiotic elements to communicate their identities. Finally, in the third article, I describe the possible communal characteristics of a fan page and the conditions that enable it to evolve to the virtual brand community concept. As a result, I will contribute to the marketing literature on the use of Facebook for communicating brand identity, on the co-creation of the brand image in social media context, and on the conceptual definition of fan pages as a communal environment.
Resumo:
O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.
Resumo:
Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.
Resumo:
Este estudo visa desenvolver uma investigação exploratória e quali-quantitativa, a cerca da representação social do Cloud Computing, na visão dos profissionais de TI brasileiros. Objetiva expor quais as percepções dos usuários da área de TI a respeito do paradigma computacional Cloud Computing. Para suportar o estudo teórico, foram coletados dados empíricos, por meio de questionários online respondidos por 221 profissionais da área de TI. Com o uso da técnica de evocação de palavras e da teoria da representação social (TRS), os dados coletados foram sumarizados. Após o tratamento dos dados mediante o uso da técnica do quadro de quatro casas de Vergès, obteve-se como resultado, a identificação do núcleo central e do sistema periférico da representação social do Cloud Computing. Por fim, os dados foram analisados utilizando-se as análises implicativa e de conteúdo, de forma a que todas as informações fossem abstraídas para melhor interpretação do tema. Obteve-se como resultado, que o núcleo central da representação social do Cloud Computing é composto pelas seguintes palavras “Nuvem”, “Armazenamento”, “Disponibilidade”, “Internet”, “Virtualização” e “Segurança”. Por sua vez, as palavras identificadas como parte do sistema periférico da representação social do Cloud Computing foram: “Compartilhamento”, “Escalabilidade” e ”Facilidade”. Os resultados permitem compreender qual percepção dos profissionais de TI a respeito deste paradigma tecnológico e sua correlação com o referencial teórico abordado. Tais informações e percepções podem auxiliar a tornar o não familiar em familiar, ou seja, compreender como o Cloud Computing é representado, visto e, finalmente, reconhecido pelos profissionais da área de TI.
Resumo:
Who was the cowboy in Washington? What is the land of sushi? Most people would have answers to these questions readily available,yet, modern search engines, arguably the epitome of technology in finding answers to most questions, are completely unable to do so. It seems that people capture few information items to rapidly converge to a seemingly 'obvious' solution. We will study approaches for this problem, with two additional hard demands that constrain the space of possible theories: the sought model must be both psychologically and neuroscienti cally plausible. Building on top of the mathematical model of memory called Sparse Distributed Memory, we will see how some well-known methods in cryptography can point toward a promising, comprehensive, solution that preserves four crucial properties of human psychology.
Resumo:
Nos últimos anos, a relevância da Teoria dos Grafos na descrição da rela ção entre indiví duos cresceu signifi cativamente, contribuindo para a ascensão do fenômeno das redes sociais. Sua importância tem permitido a explora ção polí tico-econômica de informa ções escondidas em sua estrutura. Assumindo que um parlamentar maximiza sua utilidade ao fortalecer o seu partido e o estado que representa, construímos uma rede política baseada no Congresso Brasileiro, o que permite a identificação de elementos da Teoria do Seletorado. Através de técnicas de Processamento de Linguagem Natural aplicadas à diferentes fontes de notícia, é possível atualizar a rede de forma a identificar alterações na estrutura de poder do sistema político brasileiro.
Resumo:
Este trabalho é um estudo sobre a aplicação de técnicas de visualização de informação em sistemas de software científico, i.e., sistemas de software voltados para matemática, ciências e engenharias. Enquanto sistemas dessa natureza normalmente fazem uso da visualização científica e figuram como caso de sucesso nessa área, nem sempre são projetados considerando os princípios de visualização de informação. Esse trabalho tem por objetivo avaliar a aplicação desse conceitos em alguns sistemas reais, desenvolvidos com diferentes níveis de entendimento nessa área de conhecimento e com base nessas experiências propor o desenvolvimento de componentes de software capazes de facilitar a criação de sistemas semelhantes e ao mesmo tempo promover a aplicação destes conceitos.
Resumo:
No jornalismo, são chamadas suítes as matérias que trazem a sequência de um fato já noticiado. Conforme a imprensa cresce na Internet, podemos ver frequentemente um mesmo fato sendo repetido em portais de notícias dia após dia. Este trabalho visa medir as quantidades de artigos a respeito de um mesmo assunto que tenha iniciado uma suíte, com esta medição acontecendo ao longo dos dias em que ele foi explorado. Os resultados permitiram que fossem encontrados padrões que identifiquem os dias em que os fatos mais relevantes foram noticiados, bem como o tempo em que o assunto foi desenvolvido. Para esta análise, foram escolhidos alguns dos mais importantes fatos que viraram suítes no Brasil ao longo dos últimos anos. As quantidades de artigos são provenientes do maior portal de notícias do país, o G1, e da base de dados do Media Cloud Brasil.
Resumo:
Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.
Resumo:
A implantação dos sistemas de notas fiscais eletrônicas proporcionou uma grande quantidade de dados para as administrações tributárias. Analisar esses dados e extrair informações importantes é um desafio. Esse trabalho buscou, por meio de técnicas de análise de dados e mineração de textos, identificar, a partir da descrição dos serviços prestados, notas emitidas incorretamente a fim de respaldar um melhor planejamento de fiscalizações.