933 resultados para sites Web en santé


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivo de esta comunicación es presentar los resultados sobre un análisis realizado en torno a lo que podemos denominar el «paisaje lingüístico hispano virtual» en Washington D.F. Los estudios sobre paisaje lingüístico han experimentado en el último tiempo un verdadero boom, sobre todo como reflejo de la convivencia de diferentes culturas con sus respectivas lenguas y variedades en las urbes del siglo XXI. En efecto: el paisaje lingüístico multilingüe es uno de los aspectos más explotados en trabajos en esta línea teórica. En este estudio el centro de atención no es el paisaje "real", documentado in situ y captado motu propio en instantáneas por nuestros aparatos fotográficos, sino el paisaje lingüístico mediatizado por el ordenador y difundido mediante la World Wide Web. En este sentido, lo que nos interesa es si se ve reflejada y qué manera la hispanidad en Washington D.F. a través del paisaje urbano que nos ofrecen programas especializados como Google Earth y Google Street View. Con este objetivo proponemos un paseo virtual por Washington D.F. y sus diferentes barrios para analizar mediante un estudio de naturaleza cuantitativa y cualitativa, apoyándonos en las herramientas teóricas y metodológicas que ofrecen los estudios de paisaje lingüístico y de la Comunicación Mediada por Ordenadores, de qué manera lo hispano constituye un engranaje del paisaje lingüístico de esta ciudad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta un estudio sobre la vía dorada del acceso abierto en la Argentina centrado en las publicaciones que integran en 2010 el Núcleo Básico de Revistas Científicas y Tecnológicas, hecho en el marco del proyecto de investigación "El acceso abierto al conocimiento científico en la Argentina: situación actual y principales tendencias" (UNLP, 2010-2011). Definiendo a la literatura abierta como digital, en línea, gratuita, accesible a texto completo en forma preferentemente inmediata y de libre uso expresamente permitido, se registró la presencia de estas condiciones en los distintos sitios web usados por las revistas para difundir sus colecciones (SciELO, RedALyC, repositorios institucionales, entre otros). Los resultados muestran que las revistas con textos completos gratuitos en línea son amplia mayoría (81 por ciento), la mayor parte de ellas (75 por ciento) se vale de sitios abiertos para difundirse y más de la mitad (54 por ciento) provee acceso a ediciones actualizadas; sin embargo, la falta de mención sobre derechos es muy alta (47 por ciento) y el libre uso permitido (39 por ciento) aparece directamente ligado a la difusión a través de sitios que fijan licencias abiertas a todos los contenidos que alojan. Como conclusión se advierte un predominio de revistas gratuitas sobre abiertas y la existencia de algunas paradojas: revistas alojadas en archivos abiertos con libertad de fijar derechos exactamente opuestos al espíritu del acceso abierto; iguales textos difundidos bajo condiciones legales diferentes por una misma revista de acuerdo al sitio web en que se encuentran, y revistas que no permitiendo el libre uso de sus textos se dan a conocer como abiertas en DOAJ, el clásico directorio mundial de revistas abiertas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tradicionalmente las bibliotecas universitarias vienen recopilando datos estadísticos sobre las colecciones, actividades y servicios acotados al trabajo in situ. Sin embargo, en la actualidad también se requiere contar con información sobre el uso de los recursos y servicios electrónicos disponibles a través de la web. En este sentido han surgido varios proyectos e iniciativas de desarrollo de indicadores específicamente orientados a su medición, que reciben la denominación genérica de e-metrics. No existe aún consenso sobre una herramienta operativa específica para el cálculo de estos indicadores. No obstante, hay una variedad de herramientas gratuitas de aplicación general para estadísticas de sitios Web, que pueden ser de utilidad para la evaluación del uso de los recursos y servicios web de las bibliotecas. Este trabajo se propone comparar diferentes herramientas estadísticas disponibles y analizar la utilidad potencial para el ámbito de las bibliotecas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta un estudio sobre la vía dorada del acceso abierto en la Argentina centrado en las publicaciones que integran en 2010 el Núcleo Básico de Revistas Científicas y Tecnológicas, hecho en el marco del proyecto de investigación "El acceso abierto al conocimiento científico en la Argentina: situación actual y principales tendencias" (UNLP, 2010-2011). Definiendo a la literatura abierta como digital, en línea, gratuita, accesible a texto completo en forma preferentemente inmediata y de libre uso expresamente permitido, se registró la presencia de estas condiciones en los distintos sitios web usados por las revistas para difundir sus colecciones (SciELO, RedALyC, repositorios institucionales, entre otros). Los resultados muestran que las revistas con textos completos gratuitos en línea son amplia mayoría (81 por ciento), la mayor parte de ellas (75 por ciento) se vale de sitios abiertos para difundirse y más de la mitad (54 por ciento) provee acceso a ediciones actualizadas; sin embargo, la falta de mención sobre derechos es muy alta (47 por ciento) y el libre uso permitido (39 por ciento) aparece directamente ligado a la difusión a través de sitios que fijan licencias abiertas a todos los contenidos que alojan. Como conclusión se advierte un predominio de revistas gratuitas sobre abiertas y la existencia de algunas paradojas: revistas alojadas en archivos abiertos con libertad de fijar derechos exactamente opuestos al espíritu del acceso abierto; iguales textos difundidos bajo condiciones legales diferentes por una misma revista de acuerdo al sitio web en que se encuentran, y revistas que no permitiendo el libre uso de sus textos se dan a conocer como abiertas en DOAJ, el clásico directorio mundial de revistas abiertas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tradicionalmente las bibliotecas universitarias vienen recopilando datos estadísticos sobre las colecciones, actividades y servicios acotados al trabajo in situ. Sin embargo, en la actualidad también se requiere contar con información sobre el uso de los recursos y servicios electrónicos disponibles a través de la web. En este sentido han surgido varios proyectos e iniciativas de desarrollo de indicadores específicamente orientados a su medición, que reciben la denominación genérica de e-metrics. No existe aún consenso sobre una herramienta operativa específica para el cálculo de estos indicadores. No obstante, hay una variedad de herramientas gratuitas de aplicación general para estadísticas de sitios Web, que pueden ser de utilidad para la evaluación del uso de los recursos y servicios web de las bibliotecas. Este trabajo se propone comparar diferentes herramientas estadísticas disponibles y analizar la utilidad potencial para el ámbito de las bibliotecas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se presenta un estudio sobre la vía dorada del acceso abierto en la Argentina centrado en las publicaciones que integran en 2010 el Núcleo Básico de Revistas Científicas y Tecnológicas, hecho en el marco del proyecto de investigación "El acceso abierto al conocimiento científico en la Argentina: situación actual y principales tendencias" (UNLP, 2010-2011). Definiendo a la literatura abierta como digital, en línea, gratuita, accesible a texto completo en forma preferentemente inmediata y de libre uso expresamente permitido, se registró la presencia de estas condiciones en los distintos sitios web usados por las revistas para difundir sus colecciones (SciELO, RedALyC, repositorios institucionales, entre otros). Los resultados muestran que las revistas con textos completos gratuitos en línea son amplia mayoría (81 por ciento), la mayor parte de ellas (75 por ciento) se vale de sitios abiertos para difundirse y más de la mitad (54 por ciento) provee acceso a ediciones actualizadas; sin embargo, la falta de mención sobre derechos es muy alta (47 por ciento) y el libre uso permitido (39 por ciento) aparece directamente ligado a la difusión a través de sitios que fijan licencias abiertas a todos los contenidos que alojan. Como conclusión se advierte un predominio de revistas gratuitas sobre abiertas y la existencia de algunas paradojas: revistas alojadas en archivos abiertos con libertad de fijar derechos exactamente opuestos al espíritu del acceso abierto; iguales textos difundidos bajo condiciones legales diferentes por una misma revista de acuerdo al sitio web en que se encuentran, y revistas que no permitiendo el libre uso de sus textos se dan a conocer como abiertas en DOAJ, el clásico directorio mundial de revistas abiertas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tradicionalmente las bibliotecas universitarias vienen recopilando datos estadísticos sobre las colecciones, actividades y servicios acotados al trabajo in situ. Sin embargo, en la actualidad también se requiere contar con información sobre el uso de los recursos y servicios electrónicos disponibles a través de la web. En este sentido han surgido varios proyectos e iniciativas de desarrollo de indicadores específicamente orientados a su medición, que reciben la denominación genérica de e-metrics. No existe aún consenso sobre una herramienta operativa específica para el cálculo de estos indicadores. No obstante, hay una variedad de herramientas gratuitas de aplicación general para estadísticas de sitios Web, que pueden ser de utilidad para la evaluación del uso de los recursos y servicios web de las bibliotecas. Este trabajo se propone comparar diferentes herramientas estadísticas disponibles y analizar la utilidad potencial para el ámbito de las bibliotecas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este paper presenta la tecnología Java Card y los certificados X.509 como método de autenticación en aplicaciones web en ambientes universitarios, en el caso concreto la Universidad Tecnológica de Panamá (UTP). La solución consiste en mejorar el escenario de acceso a los servicios de la UTP tratando de extender el uso de la Infraestructura de Clave Pública, llevando a cabo la integración de estas tecnologías que aporten mayor seguridad a todos los usuarios y que gocen de un acceso a los servicios ofrecidos de manera flexible, segura, garantizando la autenticidad, confidencialidad, integridad y no repudio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desde la explosión de crecimiento de internet que comenen los años 90, se han ido creando y poniendo a disposición de los usuarios diversas herramientas para compartir información y servicios de diversas formas, desde el nacimiento del primer navegador hasta nuestros días, donde hay infinidad de lenguajes aplicables al ámbito web. En esta fase de crecimiento, en primer lugar, de cara a usuarios individuales, saldrían herramientas que permitirían a cada cual hacer su web personal, con sus contenidos expuestos. Más adelante se fue generando el fenómeno “comunidad”, con, por ejemplo, foros, o webs en las que había múltiples usuarios que disfrutaban de contenidos o servicios que la web ofreciese. Este crecimiento del mundo web en lo comunitario ha avanzado en muchas ramas,entre ellas, por supuesto, la educacional, surgiendo plataformas como la que es base del proyecto que a continuación se presenta, y herramienta básica y prácticamente ya imprescindible en la enseñanza universitaria: Moodle. Moodle es una herramienta diseñada para compatir recursos y diseñar actividades para el usuario potencial, complementando su aprendizaje en aula, o incluso siendo una vía autónoma de aprendizaje en sí misma. Se ha realizado un estudio sobre el estado de saludo de los contenidos que se exponen en Moodle, y se ha encontrado que una gran mayoría de los cursos que se pueden visitar tienen un gran número de carencias. Por un lado, hay pocos con material original explotado exclusivamente para el curso, y, si tienen material original, no se ha observado una especial atención por la maquetación. Por otro lado, hay muchos otros sin material original, y, en ambos casos, no se ha encontrado ningún curso que ofrezca material audiovisual exclusivo para el curso, presentando algunos en su lugar material audiovisual encontrado en la red (Youtube, etc). A la vista de estos hechos, se ha realizado un proyecto que intenta aportar soluciones ante estas carencias, y se presenta un curso procedente de diversas referencias bibliográficas, para la parte textual, y material audiovisual original e inédito que también se ha explotado específicamente para este curso. Este material ha sido por un lado vídeo, que se ha visionado, editado y subtitulado con software de libre distribución, y por otro lado, audio, que complementa un completo glosario que se ha añadido como extra al curso y cuyo planteamiento no se ha encontrado en ningún curso online de los revisados. Todo esto se ha envuelto en una maquetación cuidada que ha sido fruto del estudio de los lenguajes web html y CSS, de forma que, por un lado, el curso sea un lugar agradable en el que aprender dentro de internet, y por otro, se pudiesen realizar ciertas operaciones que sin estos conocimientos habrían sido imposibles, como la realización del glosario o la incrustación de imágenes y vídeos. A su vez, se ha tratado de dar un enfoque didáctico a toda la memoria del proyecto, de forma que pueda ser de utilidad a un usuario futuro que quisiese profundizar en los usos de Moodle, introducirse en el lenguaje web, o introducirse en el mundo de la edición de vídeo. ABSTRACT: Since the explosion of Internet growth beginning in the 90s, many tools have been created and made available for users to share information and services in various ways, from the birth of the first browser until today, where there are plenty of web programming languages. This growth stage would give individual users tools that would allow everyone to make an own personal website, with their contents exposed. Later, the "community" phenomenon appeared with, for example, forums, or websites where multiple users enjoyed the content or web services that those websites offered. Also, this growth in the web community world has progressed in many fields, including education, with the emerge of platforms such as the one that this project uses as its basis, and which is the basic and imperative tool in college education: Moodle. Moodle is a tool designed to share resources and design activities for the potential user, completing class learning, or even letting this user learn in an autonomous way. In this project a study on the current situation of the content present in Moodle courses around the net has been carried out, and it has been found that most of them lack of original material exploited exclusively for the courses, and if they have original material, there has been not observed concern on the layout where that material lies. On the other hand, there are many other with non original material, and in both cases, there has not been found any course that offers audio- visual material made specifically for the course, instead of presenting some audiovisual material found on the net (Youtube, etc). In view of these facts, the project presented here seeks to provide solutions to these shortcomings, presenting a course with original material exploited from various references, and unpublished audioevisual material which also has been exploited specifically for this course. This material is, on one hand, video, which has been viewed, edited and subtitled with free software, and on the other, audio, which complements a comprehensive glossary that has been added as an extra feature to the course and whose approach was not found in any of the online courses reviewed. All of this has been packaged in a neat layout that has been the result of the study of web languages HTML and CSS, so that first, the course was a pleasant place to learn on the internet, and second, certain operations could be performed which without this knowledge would have been impossible, as the glossary design or embedding images and videos. Furthermore, a didactic approach has been adopted to the entire project memory, so it can be useful to a future user who wanted to go deeper on the uses of Moodle, containing an intro into the web language, or in the world video editing.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La implantación de las tecnologías Internet ha permitido la extensión del uso de estrategias e-manufacturing y el desarrollo de herramientas para la recopilación, transformación y sincronización de datos de fabricación vía web. En este ámbito, un área de potencial desarrollo es la extensión del virtual manufacturing a los procesos de Performance Management (PM), área crítica para la toma de decisiones y ejecución de acciones de mejora en fabricación. Este trabajo doctoral propone un Arquitectura de Información para el desarrollo de herramientas virtuales en el ámbito PM. Su aplicación permite asegurar la interoperabilidad necesaria en los procesos de tratamiento de información de toma de decisión. Está formado por tres sub-sistemas: un modelo conceptual, un modelo de objetos y un marco Web compuesto de una plataforma de información y una arquitectura de servicios Web (WS). El modelo conceptual y el modelo de objetos se basa en el desarrollo de toda la información que se necesita para definir y obtener los diferentes indicadores de medida que requieren los procesos PM. La plataforma de información hace uso de las tecnologías XML y B2MML para estructurar un nuevo conjunto de esquemas de mensajes de intercambio de medición de rendimiento (PMXML). Esta plataforma de información se complementa con una arquitectura de servicios web que hace uso de estos esquemas para integrar los procesos de codificación, decodificación, traducción y evaluación de los performance key indicators (KPI). Estos servicios realizan todas las transacciones que permiten transformar los datos origen en información inteligente usable en los procesos de toma de decisión. Un caso práctico de intercambio de datos en procesos de medición del área de mantenimiento de equipos es mostrado para verificar la utilidad de la arquitectura. ABSTRAC The implementation of Internet technologies has led to e-Manufacturing technologies becoming more widely used and to the development of tools for compiling, transforming and synchronizing manufacturing data through the Web. In this context, a potential area for development is the extension of virtual manufacturing to Performance Measurement (PM) processes, a critical area for decision-making and implementing improvement actions in manufacturing. This thesis proposes a Information Architecture to integrate decision support systems in e-manufacturing. Specifically, the proposed architecture offers a homogeneous PM information exchange model that can be applied trough decision support in emanufacturing environment. Its application improves the necessary interoperability in decision-making data processing tasks. It comprises three sub-systems: a data model, a object model and Web Framework which is composed by a PM information platform and PM-Web services architecture. . The data model and the object model are based on developing all the information required to define and acquire the different indicators required by PM processes. The PM information platform uses XML and B2MML technologies to structure a new set of performance measurement exchange message schemas (PM-XML). This PM information platform is complemented by a PM-Web Services architecture that uses these schemas to integrate the coding, decoding, translation and assessment processes of the key performance indicators (KPIs). These services perform all the transactions that enable the source data to be transformed into smart data that can be used in the decision-making processes. A practical example of data exchange for measurement processes in the area of equipment maintenance is shown to demonstrate the utility of the architecture.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la realización de este proyecto se ha tratado principalmente la temática del web scraping sobre documentos HTML en Android. Como resultado del mismo, se ha propuesto una metodología para poder realizar web scraping en aplicaciones implementadas para este sistema operativo y se desarrollará una aplicación basada en esta metodología que resulte útil a los alumnos de la escuela. Web scraping se puede definir como una técnica basada en una serie de algoritmos de búsqueda de contenido con el fin de obtener una determinada información de páginas web, descartando aquella que no sea relevante. Como parte central, se ha dedicado bastante tiempo al estudio de los navegadores y servidores Web, y del lenguaje HTML presente en casi todas las páginas web en la actualidad así como de los mecanismos utilizados para la comunicación entre cliente y servidor ya que son los pilares en los que se basa esta técnica. Se ha realizado un estudio de las técnicas y herramientas necesarias, aportándose todos los conceptos teóricos necesarios, así como la proposición de una posible metodología para su implementación. Finalmente se ha codificado la aplicación UPMdroid, desarrollada con el fin de ejemplificar la implementación de la metodología propuesta anteriormente y a la vez desarrollar una aplicación cuya finalidad es brindar al estudiante de la ETSIST un soporte móvil en Android que le facilite el acceso y la visualización de aquellos datos más importantes del curso académico como son: el horario de clases y las calificaciones de las asignaturas en las que se matricule. Esta aplicación, además de implementar la metodología propuesta, es una herramienta muy interesante para el alumno, ya que le permite utilizar de una forma sencilla e intuitiva gran número de funcionalidades de la escuela solucionando así los problemas de visualización de contenido web en los dispositivos. ABSTRACT. The main topic of this project is about the web scraping over HTML documents on Android OS. As a result thereof, it is proposed a methodology to perform web scraping in deployed applications for this operating system and based on this methodology that is useful to the ETSIST school students. Web scraping can be defined as a technique based on a number of content search algorithms in order to obtain certain information from web pages, discarding those that are not relevant. As a main part, has spent considerable time studying browsers and Web servers, and the HTML language that is present today in almost all websites as well as the mechanisms used for communication between client and server because they are the pillars which this technique is based. We performed a study of the techniques and tools needed, providing all the necessary theoretical concepts, as well as the proposal of a possible methodology for implementation. Finally it has codified UPMdroid application, developed in order to illustrate the implementation of the previously proposed methodology and also to give the student a mobile ETSIST Android support to facilitate access and display those most important data of the current academic year such as: class schedules and scores for the subjects in which you are enrolled. This application, in addition to implement the proposed methodology is also a very interesting tool for the student, as it allows a simple and intuitive way of use these school functionalities thus fixing the viewing web content on devices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La creación de esta aplicación web empresarial surge con la necesidad de optimizar el tiempo en el proceso de creación de una campaña publicitaria de email marketing. El objetivo principal de este trabajo es automatizar el proceso de validación de los campos de un formulario web. Un formulario web [6] es un documento digital en el que los usuarios introducen sus datos personales como nombre, apellido, dirección, documento de identidad, entre otros. Estos datos posteriormente serán procesados y almacenados en un base de datos para luego ser enviados al anunciante. El proceso de validación se refiere a la programación del formulario web en la parte del cliente usando tecnologías web como JavaScript y HTML5, para controlar que los datos introducidos por el usuario en el formulario, sean correctos. Cada campo de un formulario web tiene una validación específica que depende de varios factores, como son el país de lanzamiento de la campaña y el campo a validar. De esta forma dependiendo del tipo de validación se genera un fichero JavaScript con todas las validaciones de dicho formulario. Una de las finalidades de este trabajo es que cualquier usuario de la empresa pueda programar un formulario web, sin tener conocimientos previos de programación, ya que la programación se realiza de forma transparente al usuario. Este es un resumen básico de la aplicación web, sin embargo se debe tener en cuenta una serie de requisitos y parámetros para hacerlo más eficiente y personalizable dependiendo de las necesidades del producto final de cada campaña publicitaria. Todos estos aspectos se explicaran en detalle en los siguientes apartados. Este trabajo se realizó en el corporativo Media Response Group, para la empresa Canalmail S.L, situada en Alcobendas, supervisado por los tutores profesionales Daniel Paz y Jorge Lázaro Molina y por el tutor académico Rafael Fernández Gallego de la Universidad Politécnica de Madrid.---ABSTRACT---The creation of this enterprise Web application arises from the need to optimize the time in the process of creating an online advertising campaign. The main objective of this work is to automate the process of validating fields in a web form. A web form [6] is a digital document that users enter data such as name, surname, address, ID number among others. These data will subsequently be processed and stored in a database and then be sent to the client. These data will subsequently be processed and stored in a database and then be sent to the advertiser. This validation process refers to programming the online form on the client‟s side using web technologies such as JavaScript, HTML5 to control that the data entered by the user in this form are correct. Each field in a web form has a specific validation that depends on several factors; like being a nationwide launch of the campaign and validating data, thus depending on the type of validation a JavaScript file is generated with all validation web form. This file is integrated into the web form by calling the service. One purpose of this work is that any business user can program a web form, without prior knowledge of web programming, since programming is transparent to the user. This is a basic summary of the web application; however we must consider a number of requirements and parameters to make it more efficient and customizable depending on the needs of the end product of each advertising campaign. All these aspects are explained in detail in the following sections. This work was performed in the corporate Media Response Group, for the company Canalmail S.L, located in Alcobendas, supervised by professional tutors Daniel Paz and Jorge Lázaro Molina and PhD Assistant Lecturer at Universidad Politécnica de Madrid. Rafael Fernández Gallego.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Trabajo Fin de Grado se ha realizado un estudio sobre una nueva tendencia emergente en el desarrollo de aplicaciones web. Esta tendencia se basa en un nuevo modelo de arquitectura conocido como micro servicios. La utilización de arquitecturas basadas en micro servicios, supone un nuevo punto de vista en el desarrollo de aplicaciones web completamente diferente al que se ha estado desarrollando en los últimos años, durante los cuales las aplicaciones web se han desplegado generalmente siguiendo arquitecturas monolíticas. Utilizando arquitecturas monolíticas el desarrollador descompone la aplicación web en tres capas: la interfaz de usuario, la lógica de la aplicación y el sistema de gestión de datos. Estas capas son ejecutadas habitualmente sobre una misma máquina (normalmente externalizando las bases de datos). Esto provoca que la flexibilidad sea mínima, que un pequeño fallo en cualquier punto tenga un gran impacto, que todas las funcionalidades estén escritas sobre un mismo lenguaje y que el escalado se haga horizontalmente de una manera ineficiente. Las arquitecturas basadas en micro servicios proponen sin embargo una arquitectura en la que cada funcionalidad quede dividida en un nuevo servicio web lo más independiente posible, lo cual va a mejorar en gran medida los puntos débiles de las aplicaciones monolíticas. Para poner en práctica y entender en mayor medida los conocimientos sobre este tipo de arquitecturas, se ha desarrollado un ejemplo de aplicación web basada en micro servicios. Por último, se ha analizado su funcionamiento, llegando a una serie de conclusiones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, la realización de compras y todo tipo de trámites a través de Internet o aspectos como la presencia online de las personas han ido aumentando paulatinamente y no parece que esta tendencia vaya a invertirse a corto plazo. Esto ha provocado que los requisitos de rendimiento y personalización exigidos a estos servicios se hayan visto incrementados notablemente. Cada vez más empresas y organizaciones de todo tipo señalan la importancia que tiene una gestión adecuada de las trazas de sus usuarios para tener éxito en el mercado digital. A partir de ellas se puede obtener información que redunda en incrementos de las capacidades de adaptación y del valor de las aplicaciones. En este sentido, los avances en el campo de la ciencia de los datos y en concreto, en el aprendizaje automático, han supuesto una pieza clave en el desarrollo de técnicas que permiten analizar y extraer el máximo conocimiento posible a partir de los grandes volúmenes de datos generados por la actividad de la Web. El objetivo de este trabajo es realizar un estudio de las fases, técnicas y metodologías que actualmente se aplican en el transcurso de los proyectos de ciencia de datos y en la disciplina del aprendizaje automático. Una vez se hayan identificado aquellas más utilizadas, se aplicarán a un ejemplo realista perteneciente al ámbito de la minería web. En concreto, se desarrollarán modelos predictivos por medio de diferentes algoritmos de aprendizaje automático (regresión logística o reglas de asociación, entre otros) que permitan modelar el comportamiento de los usuarios y predecir la página web que van a visitar a continuación. Para ello se hará uso del paquete estadístico R y de la plataforma de desarrollo RStudio. Posteriormente, se procederá a determinar los principales obstáculos que se derivan de la aplicación de las técnicas del aprendizaje automático así como a determinar el rendimiento que pueden llegar a alcanzar en la práctica. Así mismo se propondrán posibles aplicaciones de los resultados obtenidos con la finalidad de proporcionar valor de negocio dentro de un entorno real. Finalmente, se desarrollarán una serie de componentes de visualización web que permitan presentar de forma gráfica los resultados extraídos del análisis así como interactuar con los distintos modelos en tiempo real. A partir de todo lo anterior se establecerá una comparativa entre los distintos modelos producidos y se destacarán las ventajas e inconvenientes de cada uno de ellos. Con todo ello se presentarán unas recomendaciones finales que recojan los factores a tener en cuenta a la hora de aplicar estos algoritmos al caso concreto de los datos de uso web.