1000 resultados para Servidores web
Resumo:
El projecte d'incidències faunística està emmarcat a la 10 edició del Màster en Tecnologies de la Informació Geogràfica. Aquest projecte està realitzat pel consorci del Parc de Collserola i té dos objectius: el primer és muntar una base de dades en PostgreSQL amb arxius que es trobaven en format shapefile i van ser exportats a Postgis pel maneig de la cartografia i les seves taules que són les que constituïxen la base de dades. El segon objectiu va ser crear una eina on l'usuari del parc pogués reportar incidències faunístiques mitjançant la web i aquesta així mateix poder ser representada al mapa. Dins del projecte s’han fet servir eines de programació per a generar la interfície amb els mapes, emprant els llenguatges Javascript, php, html.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
La actividad se ha desarrollado en el Departamento de Informática del Instituto de Enseñanza Secundaria Ribera de Castilla. Las prácticas se han desarrollado en las aulas de informática, los objetivos han sido instalar un servidor web de ftp, news y chat, controlar el acceso a Internet. El sistema de trabajo ha sido el reparto de tareas y posteriormente la puesta en el grupo. Se elaboró un programa con los puntos a tratar, hubo reparto de tareas, se recopiló información y recursos, se hizo puesta en común en el grupo, hubo implementación y puesta en marcha de las tareas. Los resultados fueron la creación de una red segmentada en cinco subredes, distintos servidores (web, ftp, news, chat). Los materiales son: hardward PC Pentium II, y AMD con 32 o 64 MB, servidor PC a 500 MZ, placa dual 194 Mb, línea ADSL, software: distintos sistemas operativos Windows 98 SE, Windows 2000, Linux. Otras aplicaciones Sntpbeamer, Outlook Express.
Resumo:
[ES]Diseño e instalación de un servicio web de tienda virtual en un entorno de computación en clúster para proporcionar alta disponibilidad y balanceo de carga del mencionado servicio. La infraestructura requerida para este despliegue será virtual, utilizándose como plataforma de virtualización KVM. Las tareas se organizan en : 1.Tareas para la creación de un clúster de balanceo de carga donde una máquina será la encargada de recibir las peticiones de los clientes y de redirigirlas a los servidores web según la carga de éstos. 2. Tareas para la creación de un clúster de alta disponibilidad para que en caso de fallo siempre haya un servidor de base de datos que pueda atender a las peticiones de los servidores web.
Resumo:
El presente trabajo pretende desarrollar una guía de control (checklist) que permita evaluar la búsqueda por materia en la interfaz usuario-sistema de los catálogos en línea de bibliotecas accesibles vía Web, y probar su funcionamiento mediante la evaluación de diez interfaces de catálogos de bibliotecas argentinas, desarrollados en su mayoría en Microisis con una interfaz vía CGI para servidores Web y una interfaz de un catálogo español, desarrollado con un producto comercial altamente reconocido y difundido. Asimismo, se selecciona un método de análisis multivariante para el análisis de los resultados como una alternativa del análisis clásico por característica soportada y se evalúa su eficacia y utilidad.
Resumo:
El presente trabajo pretende desarrollar una guía de control (checklist) que permita evaluar la búsqueda por materia en la interfaz usuario-sistema de los catálogos en línea de bibliotecas accesibles vía Web, y probar su funcionamiento mediante la evaluación de diez interfaces de catálogos de bibliotecas argentinas, desarrollados en su mayoría en Microisis con una interfaz vía CGI para servidores Web y una interfaz de un catálogo español, desarrollado con un producto comercial altamente reconocido y difundido. Asimismo, se selecciona un método de análisis multivariante para el análisis de los resultados como una alternativa del análisis clásico por característica soportada y se evalúa su eficacia y utilidad.
Resumo:
El presente trabajo pretende desarrollar una guía de control (checklist) que permita evaluar la búsqueda por materia en la interfaz usuario-sistema de los catálogos en línea de bibliotecas accesibles vía Web, y probar su funcionamiento mediante la evaluación de diez interfaces de catálogos de bibliotecas argentinas, desarrollados en su mayoría en Microisis con una interfaz vía CGI para servidores Web y una interfaz de un catálogo español, desarrollado con un producto comercial altamente reconocido y difundido. Asimismo, se selecciona un método de análisis multivariante para el análisis de los resultados como una alternativa del análisis clásico por característica soportada y se evalúa su eficacia y utilidad.
Resumo:
En la realización de este proyecto se ha tratado principalmente la temática del web scraping sobre documentos HTML en Android. Como resultado del mismo, se ha propuesto una metodología para poder realizar web scraping en aplicaciones implementadas para este sistema operativo y se desarrollará una aplicación basada en esta metodología que resulte útil a los alumnos de la escuela. Web scraping se puede definir como una técnica basada en una serie de algoritmos de búsqueda de contenido con el fin de obtener una determinada información de páginas web, descartando aquella que no sea relevante. Como parte central, se ha dedicado bastante tiempo al estudio de los navegadores y servidores Web, y del lenguaje HTML presente en casi todas las páginas web en la actualidad así como de los mecanismos utilizados para la comunicación entre cliente y servidor ya que son los pilares en los que se basa esta técnica. Se ha realizado un estudio de las técnicas y herramientas necesarias, aportándose todos los conceptos teóricos necesarios, así como la proposición de una posible metodología para su implementación. Finalmente se ha codificado la aplicación UPMdroid, desarrollada con el fin de ejemplificar la implementación de la metodología propuesta anteriormente y a la vez desarrollar una aplicación cuya finalidad es brindar al estudiante de la ETSIST un soporte móvil en Android que le facilite el acceso y la visualización de aquellos datos más importantes del curso académico como son: el horario de clases y las calificaciones de las asignaturas en las que se matricule. Esta aplicación, además de implementar la metodología propuesta, es una herramienta muy interesante para el alumno, ya que le permite utilizar de una forma sencilla e intuitiva gran número de funcionalidades de la escuela solucionando así los problemas de visualización de contenido web en los dispositivos. ABSTRACT. The main topic of this project is about the web scraping over HTML documents on Android OS. As a result thereof, it is proposed a methodology to perform web scraping in deployed applications for this operating system and based on this methodology that is useful to the ETSIST school students. Web scraping can be defined as a technique based on a number of content search algorithms in order to obtain certain information from web pages, discarding those that are not relevant. As a main part, has spent considerable time studying browsers and Web servers, and the HTML language that is present today in almost all websites as well as the mechanisms used for communication between client and server because they are the pillars which this technique is based. We performed a study of the techniques and tools needed, providing all the necessary theoretical concepts, as well as the proposal of a possible methodology for implementation. Finally it has codified UPMdroid application, developed in order to illustrate the implementation of the previously proposed methodology and also to give the student a mobile ETSIST Android support to facilitate access and display those most important data of the current academic year such as: class schedules and scores for the subjects in which you are enrolled. This application, in addition to implement the proposed methodology is also a very interesting tool for the student, as it allows a simple and intuitive way of use these school functionalities thus fixing the viewing web content on devices.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Electrotécnica e Computadores
Resumo:
El projecte ha estat elaborat amb la col•laboració del LIGIT i del ETC LUSI. Serveix per a gestionar les Metadades i visualitzar-les a través del Web. El programari utilitzat és Geonetwork opensource, gestiona Metadades conformes als estàndards OGC i ISO. S'han implementat, a través de local o a través de connexions a servidors Web com Dav, CSW o OAI-PMH, en MckoiDB. Es visualitzen en el seu visor, a través de connexions a servidors de mapes WMS i ArcIMS i en visors externs com GoogleEarth. S'ha millorat l'aspecte gràfic i implementat amb noves funcionalitats editant el codi dels fitxers interns com Javascript, XML, XSL, Java
Resumo:
Este trabalho foi desenvolvido no âmbito do Curso de Licenciatura em Informática – Ramo Educacional e tem por objecto estudar e avaliar o Sistema de Gestão de Conteúdos no Projecto de Desenvolvimento do Site do Ministério da Saúde cujo o objectivo é a implementação de um sistema de informação para a divulgação das actividades realizadas pelo Ministério da Saúde de Cabo Verde. Com o desenvolvimento das tecnologias de informação e comunicação, uma das mais populares formas de divulgação da informação tem sido através de criação de sites e aplicações web. Nessa óptica torna-se de extrema importância que uma instituição como o Ministério da Saúde disponha de um sistema de recolha, tratamento e divulgação de informação utilizando as tecnologias de informação e comunicação. No primeiro momento do trabalho fiz-se uma analise das tecnologias de comunicação, a web, os protocolos utilizados, linguagens de programação, base de dados MYSQL, servidores web, e especialmente o Sistema de Gestão de Conteúdos, seguido de um levantamento dos requisitos e uma análise das necessidades em matéria de infra-estruturas tecnológicas, e escolha de ferramentas de desenvolvimento de sites. Passou-se á recolha de informações através de contactos com todos os departamentos e estruturas do Ministério da Saúde. Segue-se a modelação e análise das informações de acordo com as estruturas dessa Instituição. Seguiu-se para a codificação que consiste praticamente na instalação e configuração dos elementos do joomla que são os templates, componente, módulos, mambots. Após as configurações, fez-se as ligações ou links para os documentos e páginas do site e finalmente os testes do site. Serviram de apoio nesse trabalho disciplinas do curso como Organização Interactiva, Sistemas de Informação, Metodologias de Sistema de Informação, Desenho Software, Desenvolvimentos de Projectos Informáticos e Base de Dados. Com o desenvolvimento deste espaço passa-se a divulgar e publicar todas as actividades relacionadas com a saúde, nomeadamente campanhas de sensibilização e informação, publicação de documentos, dados estatísticos, fóruns de discussões sobre a saúde, inquéritos on-line, entre outros. De salientar que o site neste momento se encontra funcionando e com uma grande audiência.
Resumo:
Los sistemas de software SIG Open Source implementados en servidores Web se encuentran en una etapa de madurez, de forma que son en muchos aspectos iguales o superiores a sus homónimos comerciales; su sofisticación, solidez, estabilidad y manejabilidad facilitan la creación de sistemas de información geográfica accesibles mediante Internet, especializados en diferentes materias, entre ellas la investigación médica. La vigilancia de la situación en salud sigue siendo la piedra angular de la detección de amenazas para la población, que requieren medidas de salud pública. La distribución de este tipo de información especializada es muy útil tanto para apoyar posteriores estudios técnicos, como para cubrir las necesidades de información de los potenciales usuarios. (...)
Resumo:
El volumen es una ayuda para los profesionales que trabajan en el campo de la educación ambiental, les ofrece direcciones electrónicas de servidores web y gophers, guías, directorios, índices, páginas de enlaces, etc., interesantes para el investigador.
Resumo:
Se presenta una experiencia piloto de la Universidad de Salamanca que consiste en preparar el material necesario de varias asignaturas de primer curso de Psicología para ser impartidas conforme a los criterios ECTS. La preparación del material estructura la organización docente del primer curso, de manera que permite la impartición de forma piloto de la docencia de las asignaturas Introducción a la Psicología, Desarrollo Cognitivo y Lingüístico, al formato de los créditos ECTS. De forma paralela se avanza en la preparación de la asignatura de quinto curso titulada Psicolingüística. Gracias a los servidores WEB de la Universidad de Salamanca se ha facilitado la docencia on-line, lo que permite realizar el proceso de enseñanza-aprendizaje de forma más autónoma, en línea con las recomendaciones europeas de educación superior.