847 resultados para DISEÑO DE PÁGINAS WEB


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Número especial dedicado a WIKI y educación superior en España (II parte), en coedición con Revista de Docencia Universitaria (Red U). Resumen tomado de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Wget es una herramienta que permite el acceso y descarga de páginas de Internet utilizando recursos internos. Las ventajas de su uso son: resuelve la lentitud de navegación en las horas en las que la Red está sobrecargada y deja más banda para los usuarios que necesiten salir de la red local. A lo largo de este trabajo se presenta cómo instalar wget, sus características, las opciones que presenta y se exponen dos proyectos utilizando wget; en el primero se explica cómo descargar páginas de dos webs y hacerlas navegables dentro de la red local, en el segundo se hace la misma operación pero automatizando la descarga.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Monográfico con el título: 'Wiki y Educación Superior en España (II parte)'. Artículo coeditado con la Revista de Educación a Distancia (RED). Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objeto de esta comunicación es presentar un estudio exploratorio sobre las funciones y tipologías de metáfora estructurales presentes en productos de e-learning, para estudiar con más detalle dos ejemplos: Geolearning y Activewolds. Estos servirán para realizar un ejercicio de identificación de los elementos audiovisuales presentes en la interface, el tratamiento de las dimensiones espacio y tiempo; el uso de 'avatares' y de las posibilidades de navegación e interacción dentro de los dos sistemas. La teoría de la muldimodalidad (Kress i van Leeuwen) es el marco teórico que conduce la reflexión sobre la representación, orientación y organización de la comunicación. Desde la misma perspectiva teórica, el trabajo de Burn y Parker nos indica pautas metodológicas para el análisis de los productos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação resulta de uma investigação que levou a cabo um estudo webométrico sobre a presença das universidades portuguesas na Web, avaliando a visibilidade das instituições através do cálculo de um indicador webométrico, o Web Impact Factor. A World Wide Web é, na atualidade, um dos principais meios de difusão de Informação. Os Estudos Métricos da Informação visam quantificar e avaliar a produção de Informação, objeto de estudo de disciplinas como a Infometria, a Cienciometria e a Bibliometria. Recentemente, surgiram a Cibermetria e a Webometria como novas disciplinas que estudam a produção e difusão da Informação no contexto do Ciberespaço e da World Wide Web, respetivamente. As universidades, enquanto polos privilegiados de produção e difusão de conhecimento, são o objeto de estudo natural da Webometria e a avaliação da sua presença na World Wide Web contribui para a análise do desempenho destas instituições. Para a realização deste trabalho foi adotada a metodologia proposta por Noruzi, que calcula três categorias de Web Impact Factor: o WIF Total, o WIF Revisto e o Selflink WIF. De modo a calcular estas categorias, foram recolhidos dados quantitativos de inlinks, selflinks, número total de páginas e número de páginas indexadas pelo motor de pesquisa. O motor de pesquisa utilizado foi o Altavista, tendo sido realizadas pesquisas de expressões booleanas durante o primeiro semestre de 2009. Após a recolha, os dados foram tratados estatisticamente e procedeu-se ao cálculo das categorias do WIF. Conclui-se que existe uma maior visibilidade das universidades públicas portuguesas porque obtêm melhores resultados ao nível de duas categorias do Web Impact Factor: o WIF Revisto e o Selflink WIF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pesquisa realizada avalia a relação entre o projeto de um Web Site1 comercial e o Flow, e a influência desse estado cognitivo sobre a comunicação de marketing do Site. É desenvolvida a partir de três perspectivas: perspectiva tecnológica do meio, mercadológica da organização e psicológica do usuário. O enfoque da pesquisa está voltado para a perspectiva humana, onde sugere que o Flow, um estado cognitivo decorrente de um processo de interação, traz reflexos positivos às comunicações de marketing de Web Sites comerciais. As três hipóteses levantadas para responder a questão de pesquisa são: H1: As características do design gráfico e arquitetura do Web Site influenciam no nível da experimentação do Flow. H2: O usuário que experimenta o Flow interage com mais profundidade com o ambiente mediado, visitando mais páginas e permanecendo mais tempo no Web Site e, por conseqüência, ficando mais exposto as comunicações emanadas pelo Site. H3: A experimentação do Flow aumenta a probabilidade do usuário avaliar positivamente o Site, aumenta a sua predisposição em retornar ao Site ou recomendá-lo a terceiros. A pesquisa empregou um método quase experimental, utilizando como instrumento um site experimental e para os testes e análises um grupo de teste e um grupo de controle. Os resultados obtidos concluem que, primeiro, as características do design e da 1 Os termos em língua inglesa apresentados ao longo deste trabalho encontram-se no glossário. VIII arquitetura do Web Site estimulam a experimentação do Flow. Segundo, o indivíduo que experimenta o fenômeno detém-se por mais tempo no Site. E terceiro, o usuário que experimenta o Flow tende a uma atitude positiva em relação ao Site.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Foi realizado um estudo de caso exploratório, visando mapear a demanda por informações em um site Web mantido por uma organização de P&D para o agronegócio. Os dados utilizados consistiram na seqüência de clicks (clickstream) realizados por visitantes entre as páginas do site, e nas palavras-chave (keywords) inseridas no seu mecanismo de busca. Procurou-se abordar a análise considerando as estatísticas gerais de acesso oriundas do domínio ".br", as primeiras ações dos visitantes ao acessar a página principal e as necessidades explícitas por informações, simbolizadas pelas palavras-chaves utilizadas para busca no site. A discussão dos resultados foi orientada à descoberta de conhecimentos que pudessem elevar o nível de personalização e customização do site estudado, ressaltando-se, entre os quais, o mapeamento das origens das visitas ao site, da distribuição das sessões ao longo de diferentes janelas de tempo, das preferências primárias de navegação dos visitantes através dos links do site e das necessidades explícitas por informação relacionada ao tema do site. Considerando o contexto atual, onde cada vez mais as organizações tenderão a buscar e interagir com clientes e parceiros através da Web, pode-se concluir que o estudo revelou aspectos úteis relacionados as atividades de transferência de tecnologia e marketing para a organização em estudo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.