32 resultados para Webpages
Resumo:
This study aims to analyze tourist information provided by the official websites of the 2014 FIFA World Cup host cities. The framework developed by Díaz (2005) was applied to analyze different aspects, such as: local tourist information, tourist services distribution, communication and interaction between website and users, and website foreign language versions. This dissertation describes how society and tourism are related by analyzing the consequences of technological evolution in the travel and tourism sector, showing the importance of the use of information and communication technology to provide accurate, upto- date and low-cost information to tourist destinations. Because of the nature of the study, the research subjects are the 12 Brazilian host cities represented by their respective official webpages (cities, states and convention bureaus), and also Brazil s official website, totalizing 36 elements to be analyzed. The methodology has been characterized as descriptive and exploratory with quantitative analysis, and also using desk research and survey literature review. In order to analyze the data collected, parametric and nonparametric statistics tests were used, such as: variance analysis (ANOVA and KRUSKAL-WALLIS) to measure means variance between groups combined with multiple comparison tests (Tukey and Games Howell); nonparametric correlations tests (Kendall s Tau b); and cluster analyses. Finally, Microsoft Excel was used to collect data and SPSS for managing data through quantitative analyses tests. Overall, the websites of the south region showed better results than the other Brazilian regions. Despite this result, the data analysis demonstrated that the available tourist information are incomplete as it was verified that tourist host cities websites are unable to provide all the information needed for the web visitors to organize and plan their journey. This means that visitors have to look for more information in other sources
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Includes bibliography
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Web content hosting, in which a Web server stores and provides Web access to documents for different customers, is becoming increasingly common. For example, a web server can host webpages for several different companies and individuals. Traditionally, Web Service Providers (WSPs) provide all customers with the same level of performance (best-effort service). Most service differentiation has been in the pricing structure (individual vs. business rates) or the connectivity type (dial-up access vs. leased line, etc.). This report presents DiffServer, a program that implements two simple, server-side, application-level mechanisms (server-centric and client-centric) to provide different levels of web service. The results of the experiments show that there is not much overhead due to the addition of this additional layer of abstraction between the client and the Apache web server under light load conditions. Also, the average waiting time for high priority requests decreases significantly after they are assigned priorities as compared to a FIFO approach.
Resumo:
The aim of this work is to develop a prototype of an e-learning environment that can foster Content and Language Integrated Learning (CLIL) for students enrolled in an aircraft maintenance training program, which allows them to obtain a license valid in all EU member states. Background research is conducted to retrace the evolution of the field of educational technology, analyzing different learning theories – behaviorism, cognitivism, and (socio-)constructivism – and reflecting on how technology and its use in educational contexts has changed over time. Particular attention is given to technologies that have been used and proved effective in Computer Assisted Language Learning (CALL). Based on the background research and on students’ learning objectives, i.e. learning highly specialized contents and aeronautical technical English, a bilingual approach is chosen, three main tools are identified – a hypertextbook, an exercise creation activity, and a discussion forum – and the learning management system Moodle is chosen as delivery medium. The hypertextbook is based on the technical textbook written in English students already use. In order to foster text comprehension, the hypertextbook is enriched by hyperlinks and tooltips. Hyperlinks redirect students to webpages containing additional information both in English and in Italian, while tooltips show Italian equivalents of English technical terms. The exercise creation activity and the discussion forum foster interaction and collaboration among students, according to socio-constructivist principles. In the exercise creation activity, students collaboratively create a workbook, which allow them to deeply analyze and master the contents of the hypertextbook and at the same time create a learning tool that can help them, as well as future students, to enhance learning. In the discussion forum students can discuss their individual issues, content-related, English-related or e-learning environment-related, helping one other and offering instructors suggestions on how to improve both the hypertextbook and the workbook based on their needs.
Resumo:
En 1588, el inventor italiano Agostino Ramelli publicó el libro Le diverse et artificiose machine. Entre las muchas máquinas de ingeniería hidráulica y militar, un total de 195 aparatos, destaca un artilugio construido para facilitar la lectura de varios libros a la vez. Esta llamada "rueda de libros" se suele citar en publicaciones recientes como precursora del hipertexto ya que esta máquina para leer permite saltar de un texto a otro de la misma manera que nos movemos entre páginas WEB y módulos textuales. Se trata de una invención que los investigadores describen como reacción al desafío que plantea la enorme cantidad de saber libresco que circula gracias a otra invención que era la imprenta con letras móviles. Aunque muy posiblemente nunca hubiera llegado a construirse, se trata de un artefacto que funciona potencialmente como una máquina de producir textos o, dicho de otra manera, como dispositivo de impulsar un determinado tipo de escritura. Me propongo leer florilegios, obras enciclopédicas y polianteas como Lugares comunes de Juan de Aranda o la escritura enciclopédica en obras como el Guzmán de Alfarache, La pícara Justina o el Libro de todas las cosas como productos virtuales de la rueda de libros.
Resumo:
En 1588, el inventor italiano Agostino Ramelli publicó el libro Le diverse et artificiose machine. Entre las muchas máquinas de ingeniería hidráulica y militar, un total de 195 aparatos, destaca un artilugio construido para facilitar la lectura de varios libros a la vez. Esta llamada "rueda de libros" se suele citar en publicaciones recientes como precursora del hipertexto ya que esta máquina para leer permite saltar de un texto a otro de la misma manera que nos movemos entre páginas WEB y módulos textuales. Se trata de una invención que los investigadores describen como reacción al desafío que plantea la enorme cantidad de saber libresco que circula gracias a otra invención que era la imprenta con letras móviles. Aunque muy posiblemente nunca hubiera llegado a construirse, se trata de un artefacto que funciona potencialmente como una máquina de producir textos o, dicho de otra manera, como dispositivo de impulsar un determinado tipo de escritura. Me propongo leer florilegios, obras enciclopédicas y polianteas como Lugares comunes de Juan de Aranda o la escritura enciclopédica en obras como el Guzmán de Alfarache, La pícara Justina o el Libro de todas las cosas como productos virtuales de la rueda de libros.
Resumo:
En 1588, el inventor italiano Agostino Ramelli publicó el libro Le diverse et artificiose machine. Entre las muchas máquinas de ingeniería hidráulica y militar, un total de 195 aparatos, destaca un artilugio construido para facilitar la lectura de varios libros a la vez. Esta llamada "rueda de libros" se suele citar en publicaciones recientes como precursora del hipertexto ya que esta máquina para leer permite saltar de un texto a otro de la misma manera que nos movemos entre páginas WEB y módulos textuales. Se trata de una invención que los investigadores describen como reacción al desafío que plantea la enorme cantidad de saber libresco que circula gracias a otra invención que era la imprenta con letras móviles. Aunque muy posiblemente nunca hubiera llegado a construirse, se trata de un artefacto que funciona potencialmente como una máquina de producir textos o, dicho de otra manera, como dispositivo de impulsar un determinado tipo de escritura. Me propongo leer florilegios, obras enciclopédicas y polianteas como Lugares comunes de Juan de Aranda o la escritura enciclopédica en obras como el Guzmán de Alfarache, La pícara Justina o el Libro de todas las cosas como productos virtuales de la rueda de libros.
Resumo:
Verbindung mariner Paläotemperatur-Kurven mit dreidimensionaler, gekoppelter Atmosphäre-Ozean Modellierung [Integrating marine multiproxy temperature estimates and three-dimensional coupled atmosphere/ocean modelling] Das Projekt war ein Beitrag zur Untersuchung des Klimas des Holozäns. Es basierte auf zwei Standbeinen: Der Heranziehung von weltweit verfügbaren, unbearbeiteten, aktualisierten und neu zusammengestellten marinen multiproxy Temperaturrekonstruktionen einerseits und der Verwendung von gekoppelten Zirkulationsmodellen für Atmosphäre und Ozean andererseits. Das Modell arbeitete mit relativ geringer Auflösung und Rechenzeit und ist für transiente Simulationen des Paläoklimas angepaßt. Für eine möglichst große globale Abdeckung der Zeitserien von Klimaproxies wurden Sedimentdaten herangezogen, die eine geringe aber dennoch höchstmögliche zeitliche Auflösung im Bereich von 50 bis 200 Jahren besitzen. Sowohl Datenrekonstruktion als auch gekoppelte Klimamodellierung erzeugten dreidimensionale Datensätze, zwei räumliche Dimensionen auf der Erdoberfläche, sowie die Zeit als dritte Dimension. Raumzeitliche Muster wurden im Rahmen des Projektes untersucht. Die eingehende Analyse rekonstruierter wie der Modell-Daten sollte einerseits das Verständnis für Klimaänderungen verbessern, die in Proxydaten gefunden werden und andererseits eine Validierung der Klimavariabilität im Modell ermöglichen. Die Musteranalyse ergab Einblicke in die Mechanismen, die zur Heterogenität von Erwärmung und Abkühlung im Holozän beitragen. Die Weiterführung der Klimasimulationen des Holozäns in die Zukunft der nächsten Jahrhunderte diente einer besseren Abschätzung der zukünftigen Klimaänderung.
Resumo:
La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.
Resumo:
This article presents a new method for data collection in regional dialectology based on site-restricted web searches. The method measures the usage and determines the distribution of lexical variants across a region of interest using common web search engines, such as Google or Bing. The method involves estimating the proportions of the variants of a lexical alternation variable over a series of cities by counting the number of webpages that contain the variants on newspaper websites originating from these cities through site-restricted web searches. The method is evaluated by mapping the 26 variants of 10 lexical variables with known distributions in American English. In almost all cases, the maps based on site-restricted web searches align closely with traditional dialect maps based on data gathered through questionnaires, demonstrating the accuracy of this method for the observation of regional linguistic variation. However, unlike collecting dialect data using traditional methods, which is a relatively slow process, the use of site-restricted web searches allows for dialect data to be collected from across a region as large as the United States in a matter of days.
Resumo:
Our research explores the possibility of categorizing webpages and webpage genre by structure or layout. Based on our results, we believe that webpage structure could play an important role, along with textual and visual keywords, in webpage categorization and searching.
Resumo:
This thesis examines the gaps between health care services aimed at Aboriginal queer individuals living in St. John’s, Newfoundland and their health care needs. I used a multi-methods research design that includes interviews and demographic surveys, unobtrusive observation and qualitative content analysis. I conducted semi-structured interviews with institutional representatives from selected health related organizations – Eastern Health, Planned Parenthood Newfoundland and Labrador, the AIDS Committee of Newfoundland and Labrador, and St. John’s Native Friendship Center; as well as a transgender activist and three people who identify as Aboriginal and queer. I conducted observational research at two public seminars on Aboriginal people and health. Finally, I carried out qualitative content analysis of organizational reports and webpages of the selected community organizations. Using a postcolonial queer framework that analyzes how Newfoundland and Labrador’s colonial history is reflected in current health care realities I argue that the lack of appropriate services and culturally insensitive delivery of services reproduce the historical marginalization of an already vulnerable group.
Resumo:
Los trastornos del comportamiento alimentario (TCA) son las patologías psicológicas que más se han incrementado en los últimos años. Uno de los factores que determina la elevada prevalencia de TCA en nuestra sociedad es el gran desconocimiento sobre alimentación. Este desconocimiento puede deberse a la consulta de recursos online sin validez científica. El objetivo de este trabajo ha sido analizar la calidad científica y el posicionamiento de los sitios web en español con información sobre nutrición, TCA y obesidad. Material y métodos: Se realizó una búsqueda de páginas web en el navegador Google Chrome con las palabras clave: dieta, anorexia, bulimia, nutrición y obesidad, seleccionándose los 20 primeros resultados de cada búsqueda según los índices de posicionamiento ofrecidos por SEOquake (Page Rank, Alexa Rank y SEMrush Rank). Las variables de análisis fueron: información relacionada con dietas y hábitos alimentarios, información sobre alimentación saludable, información sobre TCA y sus criterios diagnósticos e información de carácter formativo acerca de temas profesionales de salud general. Sólo el 50% de las web encontradas cumplían los criterios de inclusión en el estudio. La mayoría no seguían las pautas establecidas por e-Europa sobre calidad. La mediana de Page Rank fue de 2, excepto en aquellas asociadas a instituciones sanitarias de prestigio. Dada la escasez de webs sanitarias con rigor científico, es imprescindible la revisión de las existentes y la creación de nuevos espacios on-line cuya supervisión sea realizada por profesionales especialistas en salud y nutrición.