923 resultados para Search Engine Optimization Methods


Relevância:

100.00% 100.00%

Publicador:

Resumo:

VANTI, Nadia. Mapeamento das Instituições Federais de Ensino Superior da Região Nordeste do Brasil na Web. Informação & informação, Londrina, v. 15, p. 55-67, 2010

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article describes the goals and activities for the first field season of The Herculaneum Graffiti Project. Our project fo-cuses on documenting and digitizing to make more broadly accessible the first-century handwritten wall-inscriptions, also called graffiti, in Herculaneum. Following an overview of the presence of ancient graffiti in Herculaneum, this report details the methodology we used to locate and document the inscriptions and the preservation status of ancient graffiti in each insula, or city-block, of the excavations. We further describe the preliminary results of the project’s documentation efforts. We are currently studying, processing, and digitizing these inscriptions and contributing them for inclusion in the Epigraphic Database Roma and EAGLE, the Europeana network of Ancient Greek and Latin Epigraphy. We conclude with a brief mention of development of The Ancient Graffiti Project, the digital resource and search engine devoted to ancient handwritten inscriptions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo tiene por objeto el análisis de la figura delderecho al olvido en Internet. Esta figura será analizada, desdesus orígenes, como meras solicitudes de tutelas de derechospresentadas ante las agencias de protección de datos de los paíseseuropeos, hasta su aplicación actual, configurado tal derecho comoun derecho cuasi-fundamental, enmarcado dentro de la esferadel derecho fundamental a la protección de datos. También, seráobjeto de análisis la labor desarrollada por la Agencia Españolade Protección de Datos, que fue la primera Agencia Europea quedecidió condenar a los motores de búsqueda por el mal tratamientode datos producido en su funcionamiento. Fruto de su labor,estos casos llegaron a la Audiencia Nacional, la cual realizó unabrillantísima, desde un punto de vista técnico, cuestión prejudicial,acerca de la actitud de los motores de búsqueda en relación conel establecimiento del derecho al olvido.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The size of online image datasets is constantly increasing. Considering an image dataset with millions of images, image retrieval becomes a seemingly intractable problem for exhaustive similarity search algorithms. Hashing methods, which encodes high-dimensional descriptors into compact binary strings, have become very popular because of their high efficiency in search and storage capacity. In the first part, we propose a multimodal retrieval method based on latent feature models. The procedure consists of a nonparametric Bayesian framework for learning underlying semantically meaningful abstract features in a multimodal dataset, a probabilistic retrieval model that allows cross-modal queries and an extension model for relevance feedback. In the second part, we focus on supervised hashing with kernels. We describe a flexible hashing procedure that treats binary codes and pairwise semantic similarity as latent and observed variables, respectively, in a probabilistic model based on Gaussian processes for binary classification. We present a scalable inference algorithm with the sparse pseudo-input Gaussian process (SPGP) model and distributed computing. In the last part, we define an incremental hashing strategy for dynamic databases where new images are added to the databases frequently. The method is based on a two-stage classification framework using binary and multi-class SVMs. The proposed method also enforces balance in binary codes by an imbalance penalty to obtain higher quality binary codes. We learn hash functions by an efficient algorithm where the NP-hard problem of finding optimal binary codes is solved via cyclic coordinate descent and SVMs are trained in a parallelized incremental manner. For modifications like adding images from an unseen class, we propose an incremental procedure for effective and efficient updates to the previous hash functions. Experiments on three large-scale image datasets demonstrate that the incremental strategy is capable of efficiently updating hash functions to the same retrieval performance as hashing from scratch.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cada vez mais, os principais objetivos na indústria é a produção a baixo custo, com a máxima qualidade e com o tempo de fabrico o mais curto possível. Para atingir esta meta, a indústria recorre, frequentemente, às máquinas de comando numérico (CNC), uma vez que com esta tecnologia torna se capaz alcançar uma elevada precisão e um tempo de processamento mais baixo. As máquinas ferramentas CNC podem ser aplicadas em diferentes processos de maquinagem, tais como: torneamento, fresagem, furação, entre outros. De todos estes processos, o mais utilizado é a fresagem devido à sua versatilidade. Utiliza-se normalmente este processo para maquinar materiais metálicos como é o caso do aço e dos ferros fundidos. Neste trabalho, são analisados os efeitos da variação de quatro parâmetros no processo de fresagem (velocidade de corte, velocidade de avanço, penetração radial e penetração axial), individualmente e a interação entre alguns deles, na variação da rugosidade num aço endurecido (aço 12738). Para essa análise são utilizados dois métodos de otimização: o método de Taguchi e o método das superfícies. O primeiro método foi utilizado para diminuir o número de combinações possíveis e, consequentemente, o número de ensaios a realizar é denominado por método de Taguchi. O método das superfícies ou método das superfícies de resposta (RSM) foi utilizado com o intuito de comparar os resultados obtidos com o método de Taguchi, de acordo com alguns trabalhos referidos na bibliografia especializada, o RSM converge mais rapidamente para um valor ótimo. O método de Taguchi é muito conhecido no setor industrial onde é utilizado para o controlo de qualidade. Apresenta conceitos interessantes, tais como robustez e perda de qualidade, sendo bastante útil para identificar variações do sistema de produção, durante o processo industrial, quantificando a variação e permitindo eliminar os fatores indesejáveis. Com este método foi vi construída uma matriz ortogonal L16 e para cada parâmetro foram definidos dois níveis diferentes e realizados dezasseis ensaios. Após cada ensaio, faz-se a medição superficial da rugosidade da peça. Com base nos resultados obtidos das medições da rugosidade é feito um tratamento estatístico dos dados através da análise de variância (Anova) a fim de determinar a influência de cada um dos parâmetros na rugosidade superficial. Verificou-se que a rugosidade mínima medida foi de 1,05m. Neste estudo foi também determinada a contribuição de cada um dos parâmetros de maquinagem e a sua interação. A análise dos valores de “F-ratio” (Anova) revela que os fatores mais importantes são a profundidade de corte radial e da interação entre profundidade de corte radial e profundidade de corte axial para minimizar a rugosidade da superfície. Estes têm contribuições de cerca de 30% e 24%, respetivamente. Numa segunda etapa este mesmo estudo foi realizado pelo método das superfícies, a fim de comparar os resultados por estes dois métodos e verificar qual o melhor método de otimização para minimizar a rugosidade. A metodologia das superfícies de resposta é baseada num conjunto de técnicas matemáticas e estatísticas úteis para modelar e analisar problemas em que a resposta de interesse é influenciada por diversas variáveis e cujo objetivo é otimizar essa resposta. Para este método apenas foram realizados cinco ensaios, ao contrário de Taguchi, uma vez que apenas em cinco ensaios consegue-se valores de rugosidade mais baixos do que a média da rugosidade no método de Taguchi. O valor mais baixo por este método foi de 1,03μm. Assim, conclui-se que RSM é um método de otimização mais adequado do que Taguchi para os ensaios realizados. Foram obtidos melhores resultados num menor número de ensaios, o que implica menos desgaste da ferramenta, menor tempo de processamento e uma redução significativa do material utilizado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Projeto InOut Expat foi desenvolvido para apoiar e ajudar os expatriados em fase de mudança para um país estrangeiro, através de uma plataforma eletrónica que oferece os serviços de uma secretária virtual para auxiliar em situações burocráticas e/ou pessoais. Oferece também, formação intercultural focada em cultura/costumes, etiqueta e linguagem não-verbal. O website tem informações gratuitas de todos os países do mundo como, o custo de vida, a língua oficial, o PIB, a capital, a bandeira que são informações facilmente encontradas num motor de busca na internet. Também apresenta links e publicações com noticias, ofertas de emprego e entrevistas a expatriados. Os expatriados envolvidos no projeto estão felizes pela decisão que tomaram em mudar de país, mas a maioria sentiu tristeza, insegurança, choque e outros sentimentos negativos na adaptação ao país de destino, a InOut Expat pretende colmatar estes sentimentos. O projeto está a cumprir o que promete desde fase embrionária. É sem dúvida uma ferramenta útil para quem opta por emigrar ou imigrar, principalmente no auxilio de uma secretária virtual para procurar casa ou trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The optimal capacities and locations of a sequence of landfills are studied, and the interactions between these characteristics are considered. Deciding the capacity of a landfill has some spatial implications since it affects the feasible region for the remaining landfills, and some temporal implications because the capacity determines the lifetime of the landfill and hence the moment of time when the next landfills should be constructed. Some general mathematical properties of the solution are provided and interpreted from an economic point of view. The resulting problem turns out to be non-convex and, therefore, it cannot be solved by conventional optimization techniques. Some global optimization methods are used to solve the problem in a particular case in order to illustrate how the solution depends on the parameter values.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scientific curiosity, exploration of georesources and environmental concerns are pushing the geoscientific research community toward subsurface investigations of ever-increasing complexity. This review explores various approaches to formulate and solve inverse problems in ways that effectively integrate geological concepts with geophysical and hydrogeological data. Modern geostatistical simulation algorithms can produce multiple subsurface realizations that are in agreement with conceptual geological models and statistical rock physics can be used to map these realizations into physical properties that are sensed by the geophysical or hydrogeological data. The inverse problem consists of finding one or an ensemble of such subsurface realizations that are in agreement with the data. The most general inversion frameworks are presently often computationally intractable when applied to large-scale problems and it is necessary to better understand the implications of simplifying (1) the conceptual geological model (e.g., using model compression); (2) the physical forward problem (e.g., using proxy models); and (3) the algorithm used to solve the inverse problem (e.g., Markov chain Monte Carlo or local optimization methods) to reach practical and robust solutions given today's computer resources and knowledge. We also highlight the need to not only use geophysical and hydrogeological data for parameter estimation purposes, but also to use them to falsify or corroborate alternative geological scenarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La neoplasia tiroidea impulsa la búsqueda de métodos diagnósticos para obtener un dictamen precoz y tratamiento oportuno que permitan mayor supervivencia y mejor calidad de vida. Objetivo: determinar la correlación entre estudio citológico e histopatológico en el diagnóstico de Neoplasia Tiroidea en pacientes atendidos en SOLCA – Cuenca, periodo 2009-2013. Metodología: estudio observacional, retrospectivo, analítico y de correlación diagnóstica, elaborado con historias clínicas de pacientes en quienes se realizó punciones (PAAF) para la citología, según el Sistema Bethesda, y con histopatología, para diagnosticar neoplasia tiroidea. Resultados: investigación desarrollada con 415 pacientes con neoplasia tiroidea. Caracterizada por 89.2% de mujeres; edad promedio de 51.8 ± 15.2 años, de 41-55 años fue la mayor categoría (36,9%); 47.2% procedieron de Cuenca y el 37.8% de las provincias vecinas. Estado civil casado/a fue más frecuente, 269 (64,8%), y de profesión “amas de casa” fueron las más afectadas 231 (55,7%). El 96.4% de diagnósticos citológicos Bethesda categoría 6, fueron confirmados por histología. Hubo correlación (r = 0.49) significativa y concordancia moderada (kappa = 0.337) entre citología e histología. Sensibilidad=63% (IC95%: 58 – 69), Especificidad=94% (IC95%: 89 – 98), RVP=10.9 (IC95%: 5 – 22) y RVN=0.39 (IC95%: 0.3 – 0.4). Conclusiones: la citología por PAAF es una herramienta para el estudio, diagnóstico de pacientes con afecciones tiroideas. Una punción realizada por expertos es una técnica rápida, económica, bien tolerada, y produce resultados confiables. La categorización Bethesda representa un sistema confiable, válido para reportar citología de tiroides

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mobile sensor networks have unique advantages compared with wireless sensor networks. The mobility enables mobile sensors to flexibly reconfigure themselves to meet sensing requirements. In this dissertation, an adaptive sampling method for mobile sensor networks is presented. Based on the consideration of sensing resource constraints, computing abilities, and onboard energy limitations, the adaptive sampling method follows a down sampling scheme, which could reduce the total number of measurements, and lower sampling cost. Compressive sensing is a recently developed down sampling method, using a small number of randomly distributed measurements for signal reconstruction. However, original signals cannot be reconstructed using condensed measurements, as addressed by Shannon Sampling Theory. Measurements have to be processed under a sparse domain, and convex optimization methods should be applied to reconstruct original signals. Restricted isometry property would guarantee signals can be recovered with little information loss. While compressive sensing could effectively lower sampling cost, signal reconstruction is still a great research challenge. Compressive sensing always collects random measurements, whose information amount cannot be determined in prior. If each measurement is optimized as the most informative measurement, the reconstruction performance can perform much better. Based on the above consideration, this dissertation is focusing on an adaptive sampling approach, which could find the most informative measurements in unknown environments and reconstruct original signals. With mobile sensors, measurements are collect sequentially, giving the chance to uniquely optimize each of them. When mobile sensors are about to collect a new measurement from the surrounding environments, existing information is shared among networked sensors so that each sensor would have a global view of the entire environment. Shared information is analyzed under Haar Wavelet domain, under which most nature signals appear sparse, to infer a model of the environments. The most informative measurements can be determined by optimizing model parameters. As a result, all the measurements collected by the mobile sensor network are the most informative measurements given existing information, and a perfect reconstruction would be expected. To present the adaptive sampling method, a series of research issues will be addressed, including measurement evaluation and collection, mobile network establishment, data fusion, sensor motion, signal reconstruction, etc. Two dimensional scalar field will be reconstructed using the method proposed. Both single mobile sensors and mobile sensor networks will be deployed in the environment, and reconstruction performance of both will be compared.In addition, a particular mobile sensor, a quadrotor UAV is developed, so that the adaptive sampling method can be used in three dimensional scenarios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Reconhecimento de Entidades Mencionadas tem como objectivo identificar e classificar entidades, baseando-se em determinadas categorias ou etiquetas, contidas em textos escritos em linguagem natural. O Sistema de Reconhecimento de Entidades Mencionadas implementado na elaboração desta Dissertação pretende identificar localidades presentes em textos informais e definir para cada localidade identificada uma das etiquetas “aldeia", "vila" ou “cidade" numa primeira aproximação ao problema. Numa segunda aproximação tiveram-se em conta as etiquetas "freguesia", "concelho" e "distrito". Para a obtenção das classificações das entidades procedeu-se a uma análise estatística do número de resultados obtidos numa pesquisa de uma entidade precedida por uma etiqueta usando o motor de pesquisa Google Search. ABSTRACT: Named Entitity Recognition has the objective of identifying and classifying entities, according to certain categories or labels, contained in texts written in natural language. The Named Entitity Recognition system implemented in the developing of this dissertation intends to identify localities in informal texts, setting for each one of these localities identified one of the labels "aldeia", ''vila" or "cidade" in a first approach to the problem. ln a second approach the labels "freguesia", "concelho" and "distrito" were taken in consideration. To obtain classifications for the entities a statistical analysis of the number of results returned by a search of an entity preceded by a label using Google search engine was performed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Abstract Aim: To identify nursing interventions aimed at persons with venous, arterial or mixed leg ulcers. Methodology: Carried out research in the EBSCO search engine: CINAHL Plus with Full Text, MEDLINE with Full Text, MedicLatina, Academic Search Complete, sought full text articles, published between 2008/01/01 and 2015/01/31, with the following keywords [(MM "leg ulcer") OR (wound care) OR (wound healing)] AND [(nursing) OR (nursing assessment) OR (nursing intervention)], filtered through initial question in PI[C]O format. Results: The different etiologies of leg ulcer require a specific therapeutic and prophylactic approach. Factors that promote healing were identified: individualization of care, interpersonal relationship, pain control, control of the exudate, education for health self-management, self-care, therapeutic adherence, implementation of guidelines of good practice and auditing and feedback of the practices. Conclusion: Person-centred care and practices based on evidence improves health results in prevention and treatment of leg ulcers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This dissertation analyzes the exploitation of the orbital angular momentum (OAM) of the electromagnetic waves with large intelligent surfaces in the near-field region and line-of-sight conditions, in light of the holographic MIMO communication concept. Firstly, a characterization of the OAM-based communication problem is presented, and the relationship between OAM-carrying waves and communication modes is discussed. Then, practicable strategies for OAM detection using large intelligent surfaces and optimization methods based on beam focusing are proposed. Numerical results characterize the effectiveness of OAM with respect to other strategies, also including the proposed detection and optimization methods. It is shown that OAM waves constitute a particular choice of communication modes, i.e., an alternative basis set, which is sub-optimum with respect to optimal basis functions that can be derived by solving eigenfunction problems. Moreover, even the joint utilization of OAM waves with focusing strategies led to the conclusion that no channel capacity achievements can be obtained with these transmission techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca di documenti rilevanti è un task fondamentale, può avvenire tramite ambienti chiusi, come le biblioteche digitali o tramite ambienti aperti, come il World Wide Web. Quello che analizzeremo in questo progetto di tesi riguarderà le interfacce per mostrare i risultati di ricerca su una collezione di documenti. L'obiettivo, tuttavia, non è l'analisi dei motori di ricerca, ma analizzare i diversi meccanismi che permettono di visualizzare i risultati. Vedremo, inoltre, le diverse visualizzazioni rilevanti nella ricerca di informazioni sul web, in particolare parleremo di visualizzazioni nello spazio, messe a confronto con la classica visualizzazione testuale. Analizzeremo anche la classificazione in una collezione di documenti, oltre che la personalizzazione, ovvero la configurazione della visualizzazione a vantaggio dell'utente. Una volta trovati i documenti rilevanti, analizzeremo i frammenti di testo come, gli snippet, i riassunti descrittivi e gli abstract, mettendo in luce il modo in cui essi aiutato l'utente a migliorare l'accesso a determinati tipi di risultati. Infine, andremo ad analizzare le visualizzazioni di frammenti rilevanti all'interno di un testo. In particolare presenteremo le tecniche di navigazione e la ricerca di determinate parole all'interno di documenti, vale a dire le panoramiche di documenti e del metodo preferito dall'utente per cercare una parola.