1000 resultados para Pàgines web -- Avaluació
Resumo:
S'analitza la usabilitat de diverses pàgines web d'inici d'àmbit català en diferents sectors com televisió, institucions, diaris, etc.
Resumo:
Aquest treball de final de carrera tracta sobre la facilitat d'ús en els llocs web, la importància de tenir en compte aquest aspecte quan es dissenyen llocs i la manera d'avaluar-los. Aquesta avaluació de la facilitat d'ús s'ha centrat en webs de l'entorn d'Humanidades, i concretament en els webs d'acadèmies científiques.
Resumo:
Avaluar la usabilitat de la nova web de l'Escola, a partir d'un disseny centrat en l'usuari.
Resumo:
La indexació i la recerca de pàgines web es basa en l’anàlisi de text. La tecnologia actual encara no pot processar d’una manera eficient i suficientment ràpida el text contingut a les imatges de les pàgines web. Aquest fet planteja un problema important d’indexació però també d’inaccessibilitat. Per poder quantificar aquest problema hem desenvolupat una aplicació software que ens permet realitzar un estudi sobre aquesta situació. Hem utilitzat aquest software per analitzar un conjunt de pàgines web representatives de la situació actual a Internet. Aquests resultats obtinguts s’han analitzat i comparat amb estudis anteriors.
Resumo:
Filtratge web utilitzant les eines de Microsoft ISA Server 2004, llur implementació, configuració i parametrització, en un escenari de treballdomèstic o de petita empresa.
Resumo:
Aquesta memòria sintetitza el treball de desenvolupament d¿una aplicació per realitzar el filtrat de pàgines web.Els objectius principals del projecte han estat d¿una banda obtenir una aplicació que permeti realitzar el filtrat i de l¿altra aprofitar el projecte per construir un model complet de desenvolupament de programari per a industrialitzar futurs projectes. En quant a la metodologia, s¿ha emprat el cicle de vida RUP de forma incremental en les tres parts de l¿aplicació, (proxy, filtres i log). En la seqüència de quatre fases s¿executen iterativament una sèrie de processos. Pel que fa al producte obtingut, es tracta d¿un servidor proxy, que realitza la funció de filtrat de pàgines web, mitjançant dues utilitats, ¿llista negra¿ d¿adreces i ¿llista negra¿ de continguts, ames de disposar d¿un registre d¿activitat log.
Resumo:
Aquest projecte final de carrera té la finalitat d'elaborar un filtre de continguts Web de paraula clau. S'ha tractat exclusivament de crear una aplicació que funcioni sobre el protocol http controlant les dades que circulen a través del port 80.
Resumo:
Aquest treball, basant-se en una aplicació concreta d'aquest concepte de web semàntic anomenada anotació semàntica de pàgines web, presenta els conceptes i els elements propis, com ara les ontologies i els llenguatges semàntics, i també un cas pràctic de disseny i desenvolupament d'una ontologia i una anotació semàntica de les pàgines d'un web a partir de l'ontologia creada.
Resumo:
Aquest projecte es fonamenta en l'estudi del protocol HTTP, el qual funciona amb l'estàndard client-servidor, la seva estructura, funcionament, l'explicació d'un exemple i el tipus de dades que treballen les peticions i respostes, i la seva aplicació en el cas dels servidors intermediaris (
Resumo:
En aquest TFC s'abordarà la creació d?un proxy que permetrà filtrar les pàgines web que continguin una sèrie d'adreces o paraules clan que haurem, prèviament, definit en un fitxer. Serà doncs, una eina que permetrà un major control als accessos a segons quines pàgines
Resumo:
El projecte presentat explora les possibilitats de la tecnologia de Microsoft.NET Framework en el camp del filtratge de pàgines web. Per disseny s'ha escollit una solució relacionada amb xarxes d'ordinadors i el resultat del projecte és una aplicació que utiliza com a base un proxy http, de forma que és capaç de filtrar pàgines web abans de que aquestes arribin al navegador.
Resumo:
Aquest treball presenta un servidor proxy fàcilment configurable per a filtrar de pàgines web el contingut de les quals es vol prohibir a un usuari. L'aplicació ha estat desenvolupada en Java mitjançant les classes Socket i ServerSocket. I incorpora la funcionalitat de confecció d'estadístiques del tràfic a través del proxy provinent de la internet i provinent del browser.
Resumo:
La creciente adaptación de los medios de comunicación al entorno digital hace conveniente la utilización de metodologías de análisis que permitan determinar la calidad de sus sitios web. En este artículo, a partir del estudio de las características de las webs de algunos de los medios de comunicación más importantes a nivel internacional, se propone una metodología para la evaluación específica de este tipo de sitios web. El modelo propuesto se compone de treinta y seis indicadores, organizados en torno a ocho parámetros que permiten valorar, especialmente, la adaptación del medio de comunicación a la interacción de la Web 2.0. Otros aspectos a los que también se presta atención, pero en menor medida, son la arquitectura de la información, la usabilidad, la accesibilidad o las herramientas de interacción y comunicación que éste pone a disposición de sus usuarios.
Resumo:
Las administracionespúblicas de los países avanzadosestán llevando a caboiniciativas para gestionar lainformación y la comunicaciónde riesgo y emergencias mediantesitios web concebidos ydiseñados para ello. Estos sitiosestán pensados para facilitarinformación a los ciudadanosen caso de emergencias, perotambién contienen informaciónútil para los expertos y las autoridades.En este trabajo, y ala luz de la legislación españolasobre emergencias, se comparanlos sitios de la administraciónautonómica catalana y delgobierno de España con lossitios de tres países de referencia:Estados Unidos, Francia yReino Unido. Al mismo tiempose propone una metodologíasimple para llevar a cabo unacomparación que permita extraerconclusiones y plantearrecomendaciones en un aspectode la gestión de la información que puede resultar clave para salvar bienes materiales y vidas humanas.