939 resultados para Library Web sites
Resumo:
Much of biomedical research is observational. The reporting of such research is often inadequate, which hampers the assessment of its strengths and weaknesses and of a study’s generalizability. The Strengthening the Reporting of Observational Studies in Epidemiology (STROBE) Initiative developed recommendations on what should be included in an accurate and complete report of an observational study. We defined the scope of the recommendations to cover three main study designs: cohort, casecontrol, and cross-sectional studies. We convened a 2-day workshop in September 2004, with methodologists, researchers, and journal editors to draft a checklist of items. This list was subsequently revised during several meetings of the coordinating group and in e-mail discussions with the larger group of STROBE contributors, taking into account empirical evidence and methodological considerations. The workshop and the subsequent iterative process of consultation and revision resulted in a checklist of 22 items (the STROBE Statement) that relate to the title, abstract, introduction, methods, results, and discussion sections of articles. Eighteen items are common to all three study designs and four are specific for cohort, case-control, or cross-sectional studies. A detailed “Explanation and Elaboration” document is published separately and is freely available on the web sites of PLoS Medicine, Annals of Internal Medicine, and Epidemiology. We hope that the STROBE Statement will contribute to improving the quality of reporting of observational studies.
Quality evaluation of the available Internet information regarding pain during orthodontic treatment
Resumo:
OBJECTIVE To investigate the quality of the data disseminated via the Internet regarding pain experienced by orthodontic patients. MATERIALS AND METHODS A systematic online search was performed for 'orthodontic pain' and 'braces pain' separately using five search engines. The first 25 results from each search term-engine combination were pooled for analysis. After excluding advertising sites, discussion groups, video feeds, and links to scientific articles, 25 Web pages were evaluated in terms of accuracy, readability, accessibility, usability, and reliability using recommended research methodology; reference textbook material, the Flesch Reading Ease Score; and the LIDA instrument. Author and information details were also recorded. RESULTS Overall, the results indicated a variable quality of the available informational material. Although the readability of the Web sites was generally acceptable, the individual LIDA categories were rated of medium or low quality, with average scores ranging from 16.9% to 86.2%. The orthodontic relevance of the Web sites was not accompanied by the highest assessment results, and vice versa. CONCLUSIONS The quality of the orthodontic pain information cited by Web sources appears to be highly variable. Further structural development of health information technology along with public referral to reliable sources by specialists are recommended.
Resumo:
Much biomedical research is observational. The reporting of such research is often inadequate, which hampers the assessment of its strengths and weaknesses and of a study's generalisability. The Strengthening the Reporting of Observational Studies in Epidemiology (STROBE) Initiative developed recommendations on what should be included in an accurate and complete report of an observational study. We defined the scope of the recommendations to cover three main study designs: cohort, case-control, and cross-sectional studies. We convened a 2-day workshop in September 2004, with methodologists, researchers, and journal editors to draft a checklist of items. This list was subsequently revised during several meetings of the coordinating group and in e-mail discussions with the larger group of STROBE contributors, taking into account empirical evidence and methodological considerations. The workshop and the subsequent iterative process of consultation and revision resulted in a checklist of 22 items (the STROBE Statement) that relate to the title, abstract, introduction, methods, results, and discussion sections of articles. 18 items are common to all three study designs and four are specific for cohort, case-control, or cross-sectional studies. A detailed Explanation and Elaboration document is published separately and is freely available on the Web sites of PLoS Medicine, Annals of Internal Medicine, and Epidemiology. We hope that the STROBE Statement will contribute to improving the quality of reporting of observational studies.
Resumo:
En este trabajo se analizarán las propuestas de marketing presentes en el mercado del siglo XXI. Para ello se tendrá en cuenta que uno de los principales objetivos del marketing es que las organizaciones den a conocer sus productos. Actualmente se compite en un mundo tan globalizado que es difícil que una empresa pueda destacarse por encima del resto. En este gran enjambrado de organizaciones pueden encontrarse grandes corporaciones como pequeñas y medianas empresas (PYMES). Desde firmas que invierten millones de recursos para darse a conocer contra otras que poseen escasos recursos para poder sobrevivir. Teniendo en cuenta lo anteriormente expuesto, el objetivo del presente escrito será analizar las estrategias de marketing que están al alcance de las PYMES en Mendoza. Se centrará la atención en las diversas herramientas virtuales que pueden utilizar para dar a conocer sus productos dentro del sector en el que desarrollan sus actividades. Se analizarán aspectos como: ventajas y desventajas de cada herramienta de marketing online, recursos que se necesitan en cada una de estas y como puede el marketing virtual llegar a la mayor cantidad posible de clientes y potenciales sin invadir la privacidad de las personas, de una forma rápida, eficiente y segura. Al hablar de herramientas online, web sites, etc., es imposible no hablar de TIC´s (Tecnologías de Información y Comunicación) y del nuevo marketing: el Marketing 2.0. Por ello es que este trabajo profundizará sobre este nuevo enfoque viendo las futuras tendencias, así como ventajas a explotar y amenazas para evitar en el futuro.
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
Este trabajo busca detectar la presencia en Internet de archivos universitarios existentes en países del continente americano cuyo idioma oficial sea la lengua española, y analizar sus sitios web prestando especial atención a los contenidos difundidos en ellos. Se relevaron a junio de 2013 un total de 56 sitios web. Como conclusiones principales pueden señalarse las siguientes: a) se observa un lento incremento en la cantidad de sitios web, pasando de 42 en 2005 a 56 en 2013; b) 52 por ciento corresponden a la fase histórica; c) México es el país con mayor cantidad de archivos; d) 64 por ciento posee sitio web propio; e) 80 por ciento incluye misión del archivo; f) cerca de un 20 por ciento no incluye datos de contacto; g) 74 por ciento señala los servicios ofrecidos; h) 53 por ciento disponen información descriptiva general sobre los fondos custodiados; i) 21 por ciento ofrece la posibilidad de hojear documentos a texto completo; j) 28 por ciento difunde su reglamento y procedimientos de trabajo; k) poco más del 45 por ciento incluye información sobre pautas para el acceso, consulta y reproducción de documentos; l) un bajo porcentaje incluye informaciones adicionales, predominando noticias (39 por ciento) y fotos (18 por ciento), así como legislación archivística (20 por ciento) y recursos archivísticos de interés (27 por ciento); m) en cuanto a las herramientas de la Web 2.0, 18 por ciento posee blog, 16 por ciento canales de RSS, 27 por ciento Facebook y 23 por ciento Twitter
Resumo:
El uso de Internet por parte de los ciudadanos para relacionarse con las Administraciones Públicas o en relación con actividades de comercio electrónico crece día a día. Así lo evidencian los diferentes estudios realizados en esta materia, como los que lleva a cabo el Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información (http://www.ontsi.red.es/ontsi/). Se hace necesario, por tanto, identificar a las partes intervinientes en estas transacciones, además de dotarlas de la confidencialidad necesaria y garantizar el no repudio. Uno de los elementos que, junto con los mecanismos criptográficos apropiados, proporcionan estos requisitos, son los certificados electrónicos de servidor web. Existen numerosas publicaciones dedicadas a analizar esos mecanismos criptográficos y numerosos estudios de seguridad relacionados con los algoritmos de cifrado, simétrico y asimétrico, y el tamaño de las claves criptográficas. Sin embargo, la seguridad relacionada con el uso de los protocolos de seguridad SSL/TLS está estrechamente ligada a dos aspectos menos conocidos: el grado de seguridad con el que se emiten los certificados electrónicos de servidor que permiten implementar dichos protocolos; y el uso que hacen las aplicaciones software, y en especial los navegadores web, de los campos que contiene el perfil de dichos certificados. Por tanto, diferentes perfiles de certificados electrónicos de servidor y diferentes niveles de seguridad asociados al procedimiento de emisión de los mismos, dan lugar a diferentes tipos de certificados electrónicos. Si además se considera el marco jurídico que afecta a cada uno de ellos, se puede concluir que existe una tipología de certificados de servidor, con diferentes grados de seguridad o de confianza. Adicionalmente, existen otros requisitos que también pueden pasar desapercibidos tanto a los titulares de los certificados como a los usuarios de los servicios de comercio electrónico y administración electrónica. Por ejemplo, el grado de confianza que otorgan los navegadores web a las Autoridades de Certificación emisoras de los certificados y cómo estas adquieren tal condición, o la posibilidad de poder verificar el estado de revocación del certificado electrónico. El presente trabajo analiza todos estos requisitos y establece, en función de los mismos, la correspondiente tipología de certificados electrónicos de servidor web. Concretamente, las características a analizar para cada tipo de certificado son las siguientes: Seguridad jurídica. Normas técnicas. Garantías sobre la verdadera identidad del dominio. Verificación del estado de revocación. Requisitos del Prestador de Servicios de Certificación. Los tipos de certificados electrónicos a analizar son: Certificados de servidor web: Certificados autofirmados y certificados emitidos por un Prestador de Servicios de Certificación. Certificados de dominio simple y certificados multidominio (wildcard y SAN) Certificados de validación extendida. Certificados de sede electrónica. ABSTRACT Internet use by citizens to interact with government or with e-commerce activities is growing daily. This topic is evidenced by different studies in this area, such as those undertaken by the Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información (http://www.ontsi.red.es/ontsi/ ). Therefore, it is necessary to identify the parties involved in these transactions, as well as provide guaranties such as confidentiality and non-repudiation. One instrument which, together with appropriate cryptographic mechanisms, provides these requirements is SSL electronic certificate. There are numerous publications devoted to analyzing these cryptographic mechanisms and many studies related security encryption algorithms, symmetric and asymmetric, and the size of the cryptographic keys. However, the safety related to the use of security protocols SSL / TLS is closely linked to two lesser known aspects: the degree of security used in issuing the SSL electronic certificates; and the way software applications, especially web Internet browsers, work with the fields of the SSL certificates profiles. Therefore, the diversity of profiles and security levels of issuing SSL electronic certificates give rise to different types of certificates. Besides, some of these electronic certificates are affected by a specific legal framework. Consequently, it can be concluded that there are different types of SSL certificates, with different degrees of security or trustworthiness. Additionally, there are other requirements that may go unnoticed both certificate holders and users of e-commerce services and e-Government. For example, the degree of trustworthiness of the Certification Authorities and how they acquire such a condition by suppliers of Internet browsers, or the possibility to verify the revocation status of the SSL electronic certificate. This paper discusses these requirements and sets, according to them, the type of SSL electronic certificates. Specifically, the characteristics analyzed for each type of certificate are the following: Legal security. Technical standards. Guarantees to the real identity of the domain. Check the revocation status. Requirements of the Certification Services Providers. The types of electronic certificates to be analyzed are the following: SSL electronic certificates: Self-signed certificates and certificates issued by a Certification Service Provider. Single-domain certificates and multi-domain certificates (wildcard and SAN) Extended Validation Certificates. “Sede electrónica” certificates (specific certificates for web sites of Spanish Public Administrations).
Resumo:
Este trabajo de investigación presenta los resultados de una revisión sistemática realizada a partir de la recopilación, lectura y análisis de distintas fuentes bibliográficas dentro de un conjunto heterogéneo consistente de 175 estudios que forman la base bibliográfica actual del documento “Cognitive Accessibility User Research” (W3C, 2015a) del W3C. Esta base bibliográfica está compuesta por publicaciones científicas basadas en libros, artículos, conferencias y sitios Web especializados, en los cuales se potencia como objeto particular de análisis, la indagación en la búsqueda de pautas de accesibilidad en las tecnologías Web que apoyen la integración a personas con discapacidad cognitiva. Como parte de este proceso de investigación se ha recopilado y descrito la situación actual, particularmente, de los retos en la utilización de las tecnologías de la información y la comunicación (TIC) en relación a personas con dificultades de aprendizaje o discapacidades cognitivas, tales como la Dislexia, Afasia, Trastorno de Aprendizaje No verbal, Envejecimiento-Demencia, Trastornos por Déficit de Atención con o sin Hiperactividad, Autismo, Síndrome de Down y Discalculia. Como aporte primordial de este Trabajo Fin de Master (TFM), se intenta trazar una línea de criterios que permitan la evaluación objetiva de este tópico, con miras a ofrecer un enfoque práctico y reciente sobre ésta temática, mostrando de forma esquematizada las pautas existentes y sirviendo de síntesis orientativa para el diseño accesible de las TIC con la finalidad de promover un soporte real a personas con los tipo de discapacidad cognitiva en los que se ha enfocado esta investigación. Logrando obtener como resultado principal de este estudio, 36 pautas generales que agrupan las coincidencias del grupo de discapacidades estudiadas y que han sido distribuidas en categorías: texto, navegación y generales, para su mejor interpretación y manejo de la Accesibilidad en las TIC´S para Personas con Discapacidad Cognitiva.---ABSTRACT---This research presents the results of a systematic review from collecting, reading and analysis of different bibliographic sources within a heterogeneous group consisting of 175 studies that form the basis of current literature document "Accessibility User Cognitive Research" (W3C , 2015th) of the W3C. This bibliographic database is composed of scientific publications based on books, articles, lectures and specialized Web sites, in which is enhanced as a particular object of analysis, the inquiry into the search for accessibility guidelines for Web technologies to support integration of people with cognitive disabilities. As part of this research process, the current situation has been collected and described, particularly the challenges in the use of information and communications technology (ICT) in relation to people with learning disabilities or cognitive disabilities, such as Dyslexia, aphasia, nonverbal learning disorder, aging-Dementia, Attention Deficit Disorders with or without hyperactivity, autism, Down syndrome and dyscalculia. As primary contribution of this Master's Thesis (TFM), it tries to draw a line of criteria to allow an objective assessment of this topic, in order to provide a practical and recent focus on this theme, showing schematically existing guidelines and serving as guidance for accessible design of ICT in order to promote a real support to people with cognitive disabilities where this research has focused on. Managing to obtain the main result of this study, 36 general guidelines that group the set of disabilities studied and have been distributed in categories: text, navigation and general, for better interpretation and management of ICTs for Accessibility people with cognitive disabilities.
Resumo:
Durante el siglo XXI hemos sido testigos de cambios con una gran trascendencia en el campo de las tecnologías tanto a nivel de hardware como software, aunque uno de los más notables ha sido el cambio del paradigma de la distribución del software, donde la instalación de herramientas de escritorio queda relegada a un segundo plano y toman fuerza las aplicaciones que consumen servicios web o que, simplemente, son aplicaciones web, que no requieren de un proceso de instalación y siempre que tengamos una conexión a internet activa podremos acceder a nuestra aplicación y datos, sin importar desde donde nos conectemos. Gracias a este cambio, últimamente han proliferado distintas tecnologías para la creación de aplicaciones web, entre estas encontramos los componentes web basados en tecnología Polymer como herramienta para el desarrollo de aplicaciones modulares y componentes reutilizables en distintos sitios web, modificando y añadiendo funcionalidad a las etiquetas de HTML, de esta manera una vez desarrollado un componente, volver a utilizarlo es realizar un trabajo de unos cuantos segundo añadiendo la etiqueta necesaria en nuestro código HTML, esta ventaja es la principal característica de Polymer. En paralelo al desarrollo de tecnologías web, y gracias a su masificación, se han generado herramientas y frameworks a través de los cuales se pueden desarrollar aplicaciones para dispositivos móviles mediante tecnologías web, esto beneficia directamente a los ecosistemas de desarrolladores, herramientas, frameworks y aplicaciones ya que los hace más amplios y accesibles a todo aquel que sea capaz de programar una aplicación web basada en HTML, CSS y Javascript. El objetivo de este trabajo es generar un canal de movilidad definiendo una metodología eficaz para portar las ventajas de los componentes web de Polymer a entornos móviles, conservando su capacidad de ser reutilizados de manera sencilla y sin perder, dentro de lo posible, la usabilidad de los mismos teniendo en cuenta las particularidades de los dispositivos móviles, esto se realizará mediante pruebas de usabilidad para posteriormente validar la metodología generada aplicándola a un caso real.---ABSTRACT---During 21st century we have witness the important changes in technologies field, involving both hardware and software level, but one of the most relevant ones has been the software distribution paradigm change, where desktop tools has lost their importance to benefit web services or just web applications, among which the web components are included. Web components are based on Polymer technology as its main tool for developing modular applications and reusable components in different web sites, adding and modifying functionality to HTML tags. So, when a components is developed, reusing it is possible just adding its correspondant tag inour HTML code. This is the main Polymer feature. As web technologies grow, different tools and frameworks has been created. They can be used to develop applications for web devices though web technologies, which is a benefit for developer, tools, frameworks and applications ecosystems, in such a way this new tools make them wider and more accessible for every one able to develop web applications with HTML, CSS and Javascript languages. The goal of this work is to generate a mobility channel defining an efficient methodology to carry the Polymer web components advantages to mobile environments, keeping their features of being reused in an easy way and without losing, when possible, their usability being aware the special features of mobile devices. This work will be evaluated through usability tests to validate then the generated methodology applying it to a real case.
Resumo:
The RESID Database is a comprehensive collection of annotations and structures for protein post-translational modifications including N-terminal, C-terminal and peptide chain cross-link modifications. The RESID Database includes systematic and frequently observed alternate names, Chemical Abstracts Service registry numbers, atomic formulas and weights, enzyme activities, taxonomic range, keywords, literature citations with database cross-references, structural diagrams and molecular models. The NRL-3D Sequence–Structure Database is derived from the three-dimensional structure of proteins deposited with the Research Collaboratory for Structural Bioinformatics Protein Data Bank. The NRL-3D Database includes standardized and frequently observed alternate names, sources, keywords, literature citations, experimental conditions and searchable sequences from model coordinates. These databases are freely accessible through the National Cancer Institute–Frederick Advanced Biomedical Computing Center at these web sites: http://www.ncifcrf.gov/RESID, http://www.ncifcrf.gov/ NRL-3D; or at these National Biomedical Research Foundation Protein Information Resource web sites: http://pir.georgetown.edu/pirwww/dbinfo/resid.html, http://pir.georgetown.edu/pirwww/dbinfo/nrl3d.html
Resumo:
This capstone examines the civil liberties of the modern terrorist and explicates the right to freedom of speech for terrorist organizations and their use of the internet. Terrorist organizations use the internet to promote ideas, recruit members, organize the flow of information, and coordinate actions. During the war on terror the US Patriot Act became law allowing for U.S. government censorship and surveillance of internet traffic and many believe these acts are a threat to civil liberties. Terrorist organizations have the right to express their views, however unpopular, and censoring or restricting web sites diminishes civil liberties for all, which democracies and liberal societies are founded upon.
Resumo:
A wealth of open educational resources (OER) focused on green topics is currently available through a variety of sources, including learning portals, digital repositories and web sites. However, in most cases these resources are not easily accessible and retrievable, while additional issues further complicate this issue. This paper presents an overview of a number of portals hosting OER, as well as a number of “green” thematic portals that provide access to green OER. It also discusses the case of a new collection that aims to support and populate existing green collections and learning portals respectively, providing information on aspects such as quality assurance/collection and curation policies, workflow and tools for both the content and metadata records that apply to the collection. Two case studies of the integration of this new collection to existing learning portals are also presented.
Resumo:
Information Retrieval systems normally have to work with rather heterogeneous sources, such as Web sites or documents from Optical Character Recognition tools. The correct conversion of these sources into flat text files is not a trivial task since noise may easily be introduced as a result of spelling or typeset errors. Interestingly, this is not a great drawback when the size of the corpus is sufficiently large, since redundancy helps to overcome noise problems. However, noise becomes a serious problem in restricted-domain Information Retrieval specially when the corpus is small and has little or no redundancy. This paper devises an approach which adds noise-tolerance to Information Retrieval systems. A set of experiments carried out in the agricultural domain proves the effectiveness of the approach presented.
Resumo:
Objetivo: Identificar competencias y contenidos básicos de salud pública para los programas de grado en fisioterapia, terapia ocupacional, ciencias ambientales, odontología y veterinaria, desde la perspectiva del profesorado de diversas universidades españolas. Método: En el contexto del II taller sobre contenidos de salud pública en los programas de grado (Mahón, 19-20 de septiembre de 2012), se organizaron cinco grupos de trabajo formados por 20 profesores/as de distintas universidades españolas, seleccionados de las guías docentes de salud pública y epidemiología publicadas en la página web de la Conferencia de Rectores de Universidades Españolas. Cada grupo trabajó sobre un grado y los resultados se discutieron en sesiones plenarias. Resultados: Para todas las titulaciones se identificaron actividades y competencias para las tres funciones esenciales de la salud pública. La mayoría de las competencias profesionales identificadas en cada uno de los grados correspondieron a la función «Valorar las necesidades de salud de la población». Los grupos de trabajo propusieron contenidos de epidemiología, introducción y conceptos de salud pública, intervención en salud pública, gestión sanitaria y políticas en salud. Las principales coincidencias en los contenidos de las titulaciones se dieron en los tres primeros. Conclusiones: Se han identificado competencias y contenidos de salud pública comunes a los distintos grados estudiados que pueden servir de punto de partida para iniciar una revisión más detallada de los programas de salud pública en los diferentes grados, y alcanzar un consenso sobre los contenidos comunes que debería incluir cada uno de ellos