1000 resultados para Pàgines web -- Disseny
Resumo:
Dotar de funcionalidad web al modulo existente de gestión documental EPDM.
Resumo:
En este Proyecto de Fin de Carrera se ha creado la aplicación web FindPlace, así como su web de administración FindPlaceAdmin. La finalidad de FindPlace es poner a disposición del usuario la información sobre las ubicaciones (laboratorios, aulas, despachos, etc.) y detalles acerca del personal de cualquier facultad asociada a la UPV/EHU. FindPlace ha sido implementada con un Responsive Web Design, lo cual permite que la página web se visualice adecuadamente independientemente del dispositivo en el que se represente. Para la consecución de este proyecto se ha seguido una metodología ágil que ha permitido que la idea inicial haya ido evolucionando y adaptándose a las nuevas necesidades surgidas a lo largo del desarrollo.
Resumo:
Realización de una aplicación web destinada a la creación y visualización de tutoriales paso a paso de cualquier temática. Para la realización de este proyecto se utilizarán las últimas técnicas de desarrollo de aplicaciones web que sean de uso libre y que no conlleven costo alguno.
Resumo:
The authors have been studying the control of phytoplankton biomass in several Australian reservoirs. To manipulate fish communities in order to reduce phytoplankton biomass, one needs a thorough understanding of processes in the plankton-associated food webs. In contrast to the situation found in lakes of the northern hemisphere, the planktivorous fish of Australian reservoirs are relatively small and they may deplete small rather than large zooplankters, so that animals as large as the adults of Daphnia carinata may avoid predation. This would result in promotion of Daphnia, particularly if fish eliminate its smaller competitors. The aim of biomanipulation should be the establishment and maintenance of a proper ratio of planktivores/piscivores, adequate for water quality requirements. Successful selection of the appropriate ratio for a given reservoir will depend on the extent of our understanding of its food web interactions. For practical application of biomanipulation in management, further development of the food web theory under Australian conditions is needed.
Resumo:
[ES] Es obligatorio para las empresas cotizadas que cuenten con una página web para atender el derecho de información de los accionistas, y donde difundir información relevante y obligatoria. Por ello, se creó la normativa necesaria para regular tanto la información mínima que las empresas debían aportar en sus webs, como los requisitos técnicos y jurídicos que dichas páginas debían poseer. No obstante, todas las empresas no presentan la misma información en sus webs, ya que muchas no se limitan a presentar solo la exigida por ley, y ésta puede ser más o menos útil para los usuarios. Por eso, es imprescindible poder conocer de alguna forma la transparencia que las empresas muestran a los usuarios en sus páginas web y en particular a los accionistas, si existe asimetría informativa o no, y saber cuál es el grado de calidad de la información presentada, así como la confianza que se puede tener en la misma.
Resumo:
El trabajo estudia la Web 2.0 y la repercusión que tiene a nivel empresarial. Idioma: Español.
Resumo:
This presentation describes how the Galveston Bay Bibliography and Galveston Bay Information Center projects transitioned from a paper world to electronic format. The mission of the Galveston Bay Information Center (GBIC) is to serve as a repository for information and a resource for research on Galveston Bay, its watershed, and the coastal region for all members of the Galveston Bay Community. GBIC was created in response to critical losses of data and information that were identified in the early stages of Galveston Bay National Estuary Program and includes a physical collection as well as a bibliography. With the loss of funding imminent, the administrators of GBIC recognized the need to preserve the collection and its digital bibliography in perpetuity. Enter Texas Digital Library. The University’s participation in TDL enabled GBIC to make the Galveston Bay Bibliography more robust and visible to the entire world.
Resumo:
Weebly is a freely-available software for creating Web pages without having to know HTML. It is easy to use, with its drag and drop editor, and offers the ability to add documents, Web links, videos, slideshows, audio, forms, polls, etc. It is hosted by Weebly and has no limits on storage space. Many templates are available for Web page design. One can publish and update almost immediately. Combined with usage of the freely-available Google Analytics, for example, it is possible to gather usage statistics. The site can be password protected, if need be. Weebly for Education is a special version for teachers and schools.
Resumo:
Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).
Resumo:
El objetivo del proyecto es implantar una aplicación web, para que los clientes puedan acceder a toda la información referente a esta empresa. Una de las peculiaridades de esta aplicación web es que, además de mostrar toda la información referente a la empresa, posee un módulo, que permitirá a todos los clientes de la empresa poder saber, en cada instante, el estado de su automóvil y pagar la factura de la reparación desde casa, con total confianza y comodidad, y todo ello mediante PayPal o por transferencia bancaria. Otro de los módulos que se van a desarrollar va a ser el panel de administración, a través del cual los administradores podrán realizar numerosas gestiones. También se va a desarrollar una App para Android que permitirá a la empresa estar conectada con sus clientes.
Resumo:
O presente estudo tem por objetivos compilar e analisar percepções sobre o uso de ferramentas web 2.0 no ensino de inglês como língua estrangeira e aliar a análise de atitudes à teoria da Andragogia, que trata do aprendizado de adultos, proposta por Knowles (1973, 1975, 1984, 1990). O assunto parece não contar com estudos coordenados, visto que Thomas (2010) apenas muito recentemente editou um compêndio com trabalhos envolvendo as possíveis aplicações de recursos da web 2.0 no estudo de uma língua estrangeira e as percepções de alunos, embora outros estudos, como os de Rosell-Aguilar (2004), Conole (2008), Kárpáti (2009) e Jarvis e Szymczyk (2010) tenham discutido o assunto isoladamente. Neste trabalho é realizada a compilação das opiniões de alunos adultos e de professores de inglês como língua estrangeira. Como instrumento de coleta de dados optou-se pela utilização de questionários fechados. Tal abordagem possivelmente dá a esta pesquisa um caráter inédito, ao menos no que se refere à coleta de atitudes de alunos adultos e professores brasileiros de um curso de idiomas quanto ao uso de ferramentas web 2.0 no ensino de uma língua estrangeira. A análise dos dados mostrou que aprendizes adultos e professores têm atitudes positivas e estão preparados para a utilização de recursos web 2.0 em sala de aula. Conclui-se, entretanto, que embora a maioria dos participantes desta pesquisa concorde que o uso de tais ferramentas contribui para o ensino de inglês como língua estrangeira, alguns ajustes e procedimentos ainda devem ser implementados para que as ferramentas web 2.0 se tornem não apenas um acessório, mas parte integrante do processo de aquisição do idioma
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cuatro años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos.
Resumo:
La Facultad de Ciencias Sociales y de la Comunicación a través del Departamento de Periodismo II viene organizando desde hace cinco años el Congreso Internacional de Ciberperiodismo y Web 2.0, un evento relacionado con el Periodismo e Internet, en general y con la Web 2.0, en particular. Un concepto éste, el de la Web 2.0, en el que el verdadero protagonismo recae en las audiencias. El público se está convirtiendo en el editor de información; es él el que define cómo quiere ver la información; y está constituyendo comunidades en este proceso. La Web 2.0 refuerza la idea del usuario como creador y no sólo como consumidor de medios. Aquellas personas que antes eran clientes de información se convierten paulatinamente en editores, y muchas de las aplicaciones asociadas con la web 2.0 pretenden ayudarles a organizar y publicar sus contenidos. El Congreso de este año, que se celebra los días 17 y 18 de noviembre en el Bizkaia Aretoa lleva por título "¿Son las audiencias indicadores de calidad?". La edición de este año del Congreso intentará responder acerca de cuáles son las estrategias de los medios de comunicación considerados de referencia, están adoptando ante el hecho de que las audiencias demanden más participación y, como consecuencia, estén cada vez más aceptando contenidos generados por los usuarios (User-Generated Content). Se explorarán características, herramientas, impacto y consecuencias para comprender, desde un punto de vista crítico, la naturaleza o el alcance de estos nuevos modelos. El objetivo es nuevamente reunir a especialistas en el área para analizar y debatir cuestiones centradas en la práctica del Ciberperiodismo actual a la luz de las nuevas realidades empresariales, profesionales y de formación. Los desafíos y los cambios provocados por la convergencia y la multitextualidad, por el también llamado “Periodismo ciudadano”, por las innovaciones tecnológicas y las experiencias emprendedoras en esta área serán temas a destacar. Se pretende, igualmente, que el congreso constituya un momento ideal para la actualización de conocimientos científicos sobre el Ciberperiodismo. Para ello, se cuenta con la presencia de académicos, tanto nacionales como extranjeros, que constituyen un referente en la investigación.
Resumo:
Background: Two distinct trends are emerging with respect to how data is shared, collected, and analyzed within the bioinformatics community. First, Linked Data, exposed as SPARQL endpoints, promises to make data easier to collect and integrate by moving towards the harmonization of data syntax, descriptive vocabularies, and identifiers, as well as providing a standardized mechanism for data access. Second, Web Services, often linked together into workflows, normalize data access and create transparent, reproducible scientific methodologies that can, in principle, be re-used and customized to suit new scientific questions. Constructing queries that traverse semantically-rich Linked Data requires substantial expertise, yet traditional RESTful or SOAP Web Services cannot adequately describe the content of a SPARQL endpoint. We propose that content-driven Semantic Web Services can enable facile discovery of Linked Data, independent of their location. Results: We use a well-curated Linked Dataset - OpenLifeData - and utilize its descriptive metadata to automatically configure a series of more than 22,000 Semantic Web Services that expose all of its content via the SADI set of design principles. The OpenLifeData SADI services are discoverable via queries to the SHARE registry and easy to integrate into new or existing bioinformatics workflows and analytical pipelines. We demonstrate the utility of this system through comparison of Web Service-mediated data access with traditional SPARQL, and note that this approach not only simplifies data retrieval, but simultaneously provides protection against resource-intensive queries. Conclusions: We show, through a variety of different clients and examples of varying complexity, that data from the myriad OpenLifeData can be recovered without any need for prior-knowledge of the content or structure of the SPARQL endpoints. We also demonstrate that, via clients such as SHARE, the complexity of federated SPARQL queries is dramatically reduced.