917 resultados para World Wide Web (Information Retrieval System)
Resumo:
Cuando en 1994/95 la World Wide Web dejó el mero ambiente académico para abrirse a todos, la prensa fue uno de los primeros sectores en adoptar esta tecnología aunque, hasta el día de doy, sigue buscando la mejor forma de hacerlo y de superar las dificultades financieras que esta nueva vía de difusión de noticias trajo consigo. Los diarios han debido adaptarse tanto a un nuevo formato (las páginas web y su “multimedialidad”) como a un nuevo ritmo de difusión, antes más bien propio de la radio, y al surgimiento de sistemas complementarios -a veces competidores- como las redes sociales. En la presente obra, hemos reunido varios trabajos que abordan distintos aspectos de la problemática actual, sin pretender en absoluto abarcarlos todos ni asegurar que abordamos los más importantes, ya que el contenido reunido ha dependido en gran parte de las respuestas al Call for papers de Revista Mediterránea de Comunicación.
Resumo:
Com a proliferação das mídias, conectadas à rede mundial de computadores, tem-se expandido as oportunidades de expressão e criação de um público cada vez mais crescente. Este advento tecnológico, associado às características do sujeito pertencente ao conceito denominado modernidade líquida, vêm alterando gradualmente as relações sociais. A motivação deste trabalho advém da urgência em sinalizar ao contexto educativo, desde o ensino básico ao acadêmico, sobre as alterações ocorridas no perfil de seu público alvo, tornando-se necessária uma revisão nos métodos, para que esses venham acrescentar abordagens aos desafios emergentes. O primeiro objetivo, a partir do referencial teórico e estudo de caso, visa identificar as características do sujeito influenciado pelo consumismo midiático, apontando para as narrativas transmídia como influências advindas do mercado de consumo interativo, destacando, contudo o interesse pela arte da narrativa. O segundo objetivo, na mesma estrutura, procura destacar exemplos de metodologias que têm o contexto acadêmico como lócus de integração e diálogos entre áreas afins. Também, procura aproximar do contexto dos meios de comunicação transmidiáticas, em seus regimes de controle, recursos de consumo e processos formativos informais, advindos destas dinâmicas. O terceiro objetivo propõe reflexões sobre os resultados de uma proposta com dois grupos de pesquisa e os expectadores de uma instalação de arte digital intitulada E-Reflexos. A dinâmica permeou em integrar os estudantes e espectadores em mestiçagens, unindo abordagens metodológicas aos conhecimentos prévios, na criação de narrativas e jogos, onde os conceitos e reflexões, advindos deste trabalho, foram problematizados e avaliados. O quarto objetivo integra reflexões sobre os principais resultados dos objetivos acima, considerando que é possível ao contexto acadêmico mediar propostas que venham reverter o potencial narrador midiático emergente para o contexto cultural, destacando a relevância das áreas de Arte nesse processo formativo.
Resumo:
We describe the Joint Effort-Topic (JET) model and the Author Joint Effort-Topic (aJET) model that estimate the effort required for users to contribute on different topics. We propose to learn word-level effort taking into account term preference over time and use it to set the priors of our models. Since there is no gold standard which can be easily built, we evaluate them by measuring their abilities to validate expected behaviours such as correlations between user contributions and the associated effort.
Resumo:
A palavra monomania provém do grego monos que se traduz por "um" e mania que significa "mania". O emprego do termo em psiquiatria deve-se a Esquirol e mais tarde a Pierre Janet. Contudo, o uso da palavra não se circunscreve ao campo da psiquiatria, o conceito de monomania é também usado para definir as denominadas "manias do eu". Nos dias de hoje, a subjectividade, a particularidade de cada indivíduo apartou-se da noção de Homem como um todo objectivo. A massificação gerou a sociedade do narcisismo. A World Wide Web permitiu ao sujeito dar a conhecer ao mundo a sua individualidade. O sujeito é livre de se mostrar, de se fazer ouvir, de contar as suas histórias e principalmente a sua própria. À semelhança do nosso quotidiano, podemos encontrar na arte contemporânea propostas artísticas que se prendem com o conceito de monomania, como o exemplo das mitologias individuais, auto-narrativas e auto-ficções de Sophie Calle: "de vivre sa vie pour faire ceuvre et de faire ceuvre pour vivre sa vie." ABSTRACT: Etymologically, "monomania" originates from the Greek words "monos" and "mania". The former refers to the notion of "one" and the latter to "mania". The term's introduction in the field of psychiatry is attributed first to Esquirol and later Pierre Janet. Usage of the word isn’t, however, exclusive to psychiatric jargon: the concept of monomania is also used to define so called "manias of the self’. Today, the subjectivity and specificity of each individual have distanced themselves from the notion of Man as an objective whole. Massification has led to a society of narcissism. The World Wide Web has allowed the subject to make her individuality known to the world at large. The subject is free to exhibit herself, make herself heard, tell her stories, and especially her own. ln a way similar to daily life, we find agendas in contemporary art that approach the concept of monomania, such as the personal mythologies, self-narratives and selffictions of Sophie Calle: "de vivre sa vie pour faire oeuvre et de faire oeuvre pour vivre sa vie."
Resumo:
Na unidade curricular de Biologia do Desenvolvimento, lecionada desde 2011 ao 2º ano da licenciatura de Biologia Humana na Universidade de Évora, tem-se aplicado um modelo de avaliação que visa focalizar a aprendizagem através da construção de trabalhos-projeto que são realizados, em duas fases, por dois grupos de alunos. Este modelo de avaliação foi motivado tanto pelo facto do conteúdo desta unidade curricular ser extremamente complexo para uma avaliação mais convencional, como pela oportunidade que dá aos alunos de se aproximarem do contexto profissional de construção do conhecimento científico por interação entre pares. Na primeira fase de avaliação, o tema e a composição do grupo são escolhidos pelos alunos, sendo completada a pouco mais de meio do semestre com a submissão dum resumo (revisão) da informação coligida, bibliografia, e uma breve apresentação para os colegas, que deste modo ficam com uma panorâmica das temáticas a desenvolver no respetivo ano letivo. Na segunda fase essa informação é legada a um novo grupo, que desta vez é sorteado entre a turma, e que deverá seguir um guião preparado pelo docente, com base no trabalho previamente apresentado, para preparar uma apresentação final, em sessão pública. Cada tema tem por isso dois grupos de alunos diretamente envolvidos, que se interligam num elo de responsabilidade mútua que irá desembocar na sessão pública final. O nome proposto para este modelo, Legato, realça esta interligação. As apresentações finais, depois de eventuais correções, ficam disponíveis publicamente na World Wide Web. O papel das aulas é ir introduzindo os alunos à disciplina científica de Biologia do Desenvolvimento, facultando-lhes os conceitos, a linguagem, e sobretudo o raciocínio que lhe são próprios. Em duas sessões práticas apresenta-se aos alunos o mundo das bases de dados biológicas e bibliográficas (respetivamente), para que consigam um levantamento mais eficiente de fontes relevantes. Decorridos 5 anos desta prática de avaliação, com mais de 30 destes trabalhosprojeto já realizados, tem-se verificado um aproveitamento muito satisfatório na generalidade dos temas, mesmo com aqueles (poucos) que sofreram da falta de empenhamento do grupo da 1ª fase. O caráter público da fase final de avaliação, de par com a preparação (por parte do docente) do guião da 2ª fase, contribuem para garantir a qualidade das apresentações finais. Mas o autor acredita que a principal motivação para a qualidade generalizada dos resultados é o elo de responsabilidade mútua referido acima, bem como uma sensação de “pertença” em relação aos temas escolhidos. Este modelo de avaliação pode ser adaptado em qualquer área do conhecimento, pois a construção do conhecimento entre pares, que se pretende ilustrar neste modelo de avaliação, é essencialmente universal; e também em diferentes fases da formação, se bem que seja especialmente adequado a unidades curriculares do 1º Ciclo do Ensino Superior.
Resumo:
Il progetto di tesi nasce dalla volontà di far luce sul rapporto tra il medium fotografico e la nozione di nuova oscenità, teorizzata e disseminata nei suoi scritti da Jean Baudrillard. Nozione che – se intesa nell’accezione proposta dal filosofo francese, ovvero l’oscenità del visibile, del troppo visibile, del più visibile del visibile – ben si adatta a dettagliare i concetti di trasparenza e di visibilità peculiari della società attuale, costantemente impegnata nel mettere a nudo se stessa attraverso i social media in nome della cosiddetta ideologia della post-privacy. Incoraggiando una continua violazione della sfera del segreto, tale ideologia favorirebbe, infatti, la progressiva diminuzione dello scarto tra ciò che può essere reso di dominio pubblico e ciò che invece, tradizionalmente, sarebbe dovuto appartenere all’ambito del privato. Un andamento generale della cultura, quello appena delineato, che si è imposto capillarmente a cavallo di millennio, accelerato dalla nascita del World Wide Web, del quale la fotografia riesce a farsi promotrice oltre che sommo interprete, contribuendo – anche in virtù di un’innovata condizione tecnologica– al compimento della visibilità e della trasparenza totale. Nel corso della trattazione, la nozione “aggiornata” di osceno sarà, dunque, assurta a strumento euristico utile a tracciare gli svolgimenti paralleli della pratica fotografica nei campi delle arti visive, della moda e dei social media, in un arco temporale che va dall’inizio degli anni Novanta a oggi. Uno strumento attraverso cui connettere autori di riferimento, rileggerne alcuni e candidarne di nuovi tra quanti, allargando il “campo del fotografabile” teorizzato da Pierre Bourdieu, profanano la soglia del privato e portano alla ribalta i risvolti banali e ordinari della quotidianità, fino a quelli intimi, tragici, inquietanti, perturbanti o addirittura nefandi, favorendo così la concretizzazione di quel “bordello senza muri” che secondo Marshall McLuhan è il mondo nell’età fotografica.
Resumo:
A partire dagli anni ‘40, l'uso della traduzione automatica ha iniziato a rappresentare un soggetto fondamentale nella traduzione, costituendo ancora ad oggi il centro di numerose ricerche e studi. In seguito alla diffusione della tecnologia informatica e del World Wide Web, iniziarono a essere disponibili sistemi commerciali di traduzione automatica. In questo periodo, divennero comuni diversi software di traduzione automatica gratuiti, fino a quando, alla fine degli anni 2000, si assistette infine allo sviluppo di una nuova tecnologia di apprendimento automatico neurale, basata sul funzionamento della mente umana. Il presente lavoro si concentra sulla valutazione della qualità della traduzione automatica neurale attraverso l'analisi e il confronto di sette sistemi, ovvero Google, Systran, Prompt, Microsoft, Yandex, ModernMT e Deepl, impiegati nel settore finanziario per la coppia linguistica inglese-italiano. Il primo capitolo tratta la storia della traduzione automatica, fornendo una breve descrizione delle diverse architetture, dei loro ambiti di utilizzo e della valutazione dei sistemi. Il secondo capitolo introduce il concetto di post-editing insieme agli obiettivi e le problematiche che lo caratterizzano. Il terzo capitolo presenta il progetto Intento, seguito da una breve panoramica dei sistemi di traduzione automatica analizzati. Nel quarto capitolo viene delineato il dominio finanziario, concentrandosi sui diversi ambiti che si sono intersecati con esso nell’ambito dello studio svolto. Il quinto e ultimo capitolo riguarda l'analisi dei segmenti tradotti, preceduta dalla definizione dei parametri scelti per la valutazione. L'ultima parte del capitolo illustra una sintesi dei risultati ottenuti e alcune considerazioni finali.
Resumo:
La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.
Resumo:
In questo lavoro di tesi si analizzerà un metodo per risolvere il problema del PageRank alternativo rispetto al tradizionale metodo delle potenze. Verso la fine degli anni '90, con l’avvento del World Wide Web, fu necessario sviluppare degli algoritmi di classificazione in grado di ordinare i siti web in base alla loro rilevanza. Davanti a questa sfida i due matematici A.N.Langville e C.D.Meyer svilupparono il metodo SIAD, "special iterative aggregation/disaggregation method". Lo scopo di questa tesi è in primo luogo di ricostruire il metodo SIAD e analizzarne le proprietà. Seguendo le analisi in un articolo di I.C.Ipsen e S.Kirkland, si ricostruirà nel dettaglio il metodo SIAD, così da esplicitare la convergenza asintotica del metodo in relazione al complemento stocastico scelto. In secondo luogo si analizzerà il metodo SIAD applicato ad una matrice di Google che rispetta ipotesi determinate, le matrici di Google sono solitamente utilizzate per rappresentare il problema del PageRank. Successivamente, si dimostrerà un importante teorema che prova come per ogni matrice di Google si possa individuare un complemento stocastico per cui il metodo SIAD converge più velocemente del metodo delle potenze. Infine, nell’ultimo capitolo si implementerà con il inguaggio di programmazione Matlab il metodo SIAD per una matrice generica e per una matrice di Google. In particolare, si sfrutterà la struttura della matrice di Google per ridurre sensibilmente il costo computazionale del metodo quando applicato applicato ad una tale matrice.
Resumo:
Este livro faz parte dos materiais didáticos dos cursos de especialização para trabalhadores vinculados à Atenção Básica ofertados pela UFPE. Aborda algumas das principais fontes de informações em saúde existentes, mostrando a importância de o estudante conhecer quais suas necessidades informacionais e onde podem ser encontradas, com relevância e precisão, as principais fontes na world wide web. Para isso, são apresentadas algumas bases de dados e portais úteis para a área da saúde e que possuem um rico conteúdo científico, importante para o trabalhador da saúde atualizar-se.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
In the last few years, there has been a wide development in the research on textual information systems. The goal is to improve these systems in order to allow an easy localization, treatment and access to the information stored in digital format (Digital Databases, Documental Databases, and so on). There are lots of applications focused on information access (for example, Web-search systems like Google or Altavista). However, these applications have problems when they must access to cross-language information, or when they need to show information in a language different from the one of the query. This paper explores the use of syntactic-sematic patterns as a method to access to multilingual information, and revise, in the case of Information Retrieval, where it is possible and useful to employ patterns when it comes to the multilingual and interactive aspects. On the one hand, the multilingual aspects that are going to be studied are the ones related to the access to documents in different languages from the one of the query, as well as the automatic translation of the document, i.e. a machine translation system based on patterns. On the other hand, this paper is going to go deep into the interactive aspects related to the reformulation of a query based on the syntactic-semantic pattern of the request.
Resumo:
This paper examines the effects of information request ambiguity and construct incongruence on end user's ability to develop SQL queries with an interactive relational database query language. In this experiment, ambiguity in information requests adversely affected accuracy and efficiency. Incongruities among the information request, the query syntax, and the data representation adversely affected accuracy, efficiency, and confidence. The results for ambiguity suggest that organizations might elicit better query development if end users were sensitized to the nature of ambiguities that could arise in their business contexts. End users could translate natural language queries into pseudo-SQL that could be examined for precision before the queries were developed. The results for incongruence suggest that better query development might ensue if semantic distances could be reduced by giving users data representations and database views that maximize construct congruence for the kinds of queries in typical domains. (C) 2001 Elsevier Science B.V. All rights reserved.
Resumo:
Many of the most common human functions such as temporal and non-monotonic reasoning have not yet been fully mapped in developed systems, even though some theoretical breakthroughs have already been accomplished. This is mainly due to the inherent computational complexity of the theoretical approaches. In the particular area of fault diagnosis in power systems however, some systems which tried to solve the problem, have been deployed using methodologies such as production rule based expert systems, neural networks, recognition of chronicles, fuzzy expert systems, etc. SPARSE (from the Portuguese acronym, which means expert system for incident analysis and restoration support) was one of the developed systems and, in the sequence of its development, came the need to cope with incomplete and/or incorrect information as well as the traditional problems for power systems fault diagnosis based on SCADA (supervisory control and data acquisition) information retrieval, namely real-time operation, huge amounts of information, etc. This paper presents an architecture for a decision support system, which can solve the presented problems, using a symbiosis of the event calculus and the default reasoning rule based system paradigms, insuring soft real-time operation with incomplete, incorrect or domain incoherent information handling ability. A prototype implementation of this system is already at work in the control centre of the Portuguese Transmission Network.
Resumo:
Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.