761 resultados para Query


Relevância:

10.00% 10.00%

Publicador:

Resumo:

SQL Injection Attack (SQLIA) remains a technique used by a computer network intruder to pilfer an organisation’s confidential data. This is done by an intruder re-crafting web form’s input and query strings used in web requests with malicious intent to compromise the security of an organisation’s confidential data stored at the back-end database. The database is the most valuable data source, and thus, intruders are unrelenting in constantly evolving new techniques to bypass the signature’s solutions currently provided in Web Application Firewalls (WAF) to mitigate SQLIA. There is therefore a need for an automated scalable methodology in the pre-processing of SQLIA features fit for a supervised learning model. However, obtaining a ready-made scalable dataset that is feature engineered with numerical attributes dataset items to train Artificial Neural Network (ANN) and Machine Leaning (ML) models is a known issue in applying artificial intelligence to effectively address ever evolving novel SQLIA signatures. This proposed approach applies numerical attributes encoding ontology to encode features (both legitimate web requests and SQLIA) to numerical data items as to extract scalable dataset for input to a supervised learning model in moving towards a ML SQLIA detection and prevention model. In numerical attributes encoding of features, the proposed model explores a hybrid of static and dynamic pattern matching by implementing a Non-Deterministic Finite Automaton (NFA). This combined with proxy and SQL parser Application Programming Interface (API) to intercept and parse web requests in transition to the back-end database. In developing a solution to address SQLIA, this model allows processed web requests at the proxy deemed to contain injected query string to be excluded from reaching the target back-end database. This paper is intended for evaluating the performance metrics of a dataset obtained by numerical encoding of features ontology in Microsoft Azure Machine Learning (MAML) studio using Two-Class Support Vector Machines (TCSVM) binary classifier. This methodology then forms the subject of the empirical evaluation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A epilepsia é uma doença neu- rológica crónica prevalente. Devido a fatores biológicos, psicológicos e sociais, os afetados pela doença apresentam maior susceptibili- dade de desenvolvimento de morbilidades psi- quiátricas. Objetivos: Revisão crítica da associação entre epilepsia e patologia psiquiátrica, permitindo aos clínicos uma abordagem mais consciente e informada. Métodos: Os artigos incluídos foram selec- cionados através da base de dados Pubmed com a query “((“Epilepsy”[Mesh]) AND “Mental Disorders”[Mesh]) AND “Comor- bidity”[Mesh]”. Adicionalmente foram con- sultados relatórios oficiais da Internacional League Against Epilepsy e World Health Or- ganization. Resultados e Conclusões: Cerca de 15% a 70% dos doentes com epilepsia apresentam patologia psiquiátrica, que pode ser classifi- cada em peri-ictal ou inter-ictal. A depressão é a patologia mais frequente, podendo ter uma prevalência de 70%, seguida das pertur- bações de ansiedade. A relação entre epilepsia e psicose poderá dever-se ao papel etiológico comum da patologia cerebral subjacente. As crises não epiléticas psicogénicas configuram um desafio diagnóstico e terapêutico, tendo uma apresentação clínica sugestiva de cri- ses epiléticas mas sem as alterações eletro- fisiológicas correspondentes, podendo surgir em doentes com e sem epilepsia. Apesar da sua heterogeneidade, os diferentes estudos globalmente evidenciam uma prevalência aumentada de patologia psiquiátrica em doentes com epilepsia. A natureza da relação entre estas patologias ainda não está inequi- vocamente esclarecida, revelando a insufi- ciência de conhecimento sobre esta temática. O presente trabalho reforça a necessidade da intervenção multidisciplinar por parte da neurologia, psiquiatria e psicologia, em indi- víduos com epilepsia e patologia psiquiátrica concomitante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

C3S2E '16 Proceedings of the Ninth International C* Conference on Computer Science & Software Engineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis investigates how web search evaluation can be improved using historical interaction data. Modern search engines combine offline and online evaluation approaches in a sequence of steps that a tested change needs to pass through to be accepted as an improvement and subsequently deployed. We refer to such a sequence of steps as an evaluation pipeline. In this thesis, we consider the evaluation pipeline to contain three sequential steps: an offline evaluation step, an online evaluation scheduling step, and an online evaluation step. In this thesis we show that historical user interaction data can aid in improving the accuracy or efficiency of each of the steps of the web search evaluation pipeline. As a result of these improvements, the overall efficiency of the entire evaluation pipeline is increased. Firstly, we investigate how user interaction data can be used to build accurate offline evaluation methods for query auto-completion mechanisms. We propose a family of offline evaluation metrics for query auto-completion that represents the effort the user has to spend in order to submit their query. The parameters of our proposed metrics are trained against a set of user interactions recorded in the search engine’s query logs. From our experimental study, we observe that our proposed metrics are significantly more correlated with an online user satisfaction indicator than the metrics proposed in the existing literature. Hence, fewer changes will pass the offline evaluation step to be rejected after the online evaluation step. As a result, this would allow us to achieve a higher efficiency of the entire evaluation pipeline. Secondly, we state the problem of the optimised scheduling of online experiments. We tackle this problem by considering a greedy scheduler that prioritises the evaluation queue according to the predicted likelihood of success of a particular experiment. This predictor is trained on a set of online experiments, and uses a diverse set of features to represent an online experiment. Our study demonstrates that a higher number of successful experiments per unit of time can be achieved by deploying such a scheduler on the second step of the evaluation pipeline. Consequently, we argue that the efficiency of the evaluation pipeline can be increased. Next, to improve the efficiency of the online evaluation step, we propose the Generalised Team Draft interleaving framework. Generalised Team Draft considers both the interleaving policy (how often a particular combination of results is shown) and click scoring (how important each click is) as parameters in a data-driven optimisation of the interleaving sensitivity. Further, Generalised Team Draft is applicable beyond domains with a list-based representation of results, i.e. in domains with a grid-based representation, such as image search. Our study using datasets of interleaving experiments performed both in document and image search domains demonstrates that Generalised Team Draft achieves the highest sensitivity. A higher sensitivity indicates that the interleaving experiments can be deployed for a shorter period of time or use a smaller sample of users. Importantly, Generalised Team Draft optimises the interleaving parameters w.r.t. historical interaction data recorded in the interleaving experiments. Finally, we propose to apply the sequential testing methods to reduce the mean deployment time for the interleaving experiments. We adapt two sequential tests for the interleaving experimentation. We demonstrate that one can achieve a significant decrease in experiment duration by using such sequential testing methods. The highest efficiency is achieved by the sequential tests that adjust their stopping thresholds using historical interaction data recorded in diagnostic experiments. Our further experimental study demonstrates that cumulative gains in the online experimentation efficiency can be achieved by combining the interleaving sensitivity optimisation approaches, including Generalised Team Draft, and the sequential testing approaches. Overall, the central contributions of this thesis are the proposed approaches to improve the accuracy or efficiency of the steps of the evaluation pipeline: the offline evaluation frameworks for the query auto-completion, an approach for the optimised scheduling of online experiments, a general framework for the efficient online interleaving evaluation, and a sequential testing approach for the online search evaluation. The experiments in this thesis are based on massive real-life datasets obtained from Yandex, a leading commercial search engine. These experiments demonstrate the potential of the proposed approaches to improve the efficiency of the evaluation pipeline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Image (Video) retrieval is an interesting problem of retrieving images (videos) similar to the query. Images (Videos) are represented in an input (feature) space and similar images (videos) are obtained by finding nearest neighbors in the input representation space. Numerous input representations both in real valued and binary space have been proposed for conducting faster retrieval. In this thesis, we present techniques that obtain improved input representations for retrieval in both supervised and unsupervised settings for images and videos. Supervised retrieval is a well known problem of retrieving same class images of the query. We address the practical aspects of achieving faster retrieval with binary codes as input representations for the supervised setting in the first part, where binary codes are used as addresses into hash tables. In practice, using binary codes as addresses does not guarantee fast retrieval, as similar images are not mapped to the same binary code (address). We address this problem by presenting an efficient supervised hashing (binary encoding) method that aims to explicitly map all the images of the same class ideally to a unique binary code. We refer to the binary codes of the images as `Semantic Binary Codes' and the unique code for all same class images as `Class Binary Code'. We also propose a new class­ based Hamming metric that dramatically reduces the retrieval times for larger databases, where only hamming distance is computed to the class binary codes. We also propose a Deep semantic binary code model, by replacing the output layer of a popular convolutional Neural Network (AlexNet) with the class binary codes and show that the hashing functions learned in this way outperforms the state­ of ­the art, and at the same time provide fast retrieval times. In the second part, we also address the problem of supervised retrieval by taking into account the relationship between classes. For a given query image, we want to retrieve images that preserve the relative order i.e. we want to retrieve all same class images first and then, the related classes images before different class images. We learn such relationship aware binary codes by minimizing the similarity between inner product of the binary codes and the similarity between the classes. We calculate the similarity between classes using output embedding vectors, which are vector representations of classes. Our method deviates from the other supervised binary encoding schemes as it is the first to use output embeddings for learning hashing functions. We also introduce new performance metrics that take into account the related class retrieval results and show significant gains over the state­ of­ the art. High Dimensional descriptors like Fisher Vectors or Vector of Locally Aggregated Descriptors have shown to improve the performance of many computer vision applications including retrieval. In the third part, we will discuss an unsupervised technique for compressing high dimensional vectors into high dimensional binary codes, to reduce storage complexity. In this approach, we deviate from adopting traditional hyperplane hashing functions and instead learn hyperspherical hashing functions. The proposed method overcomes the computational challenges of directly applying the spherical hashing algorithm that is intractable for compressing high dimensional vectors. A practical hierarchical model that utilizes divide and conquer techniques using the Random Select and Adjust (RSA) procedure to compress such high dimensional vectors is presented. We show that our proposed high dimensional binary codes outperform the binary codes obtained using traditional hyperplane methods for higher compression ratios. In the last part of the thesis, we propose a retrieval based solution to the Zero shot event classification problem - a setting where no training videos are available for the event. To do this, we learn a generic set of concept detectors and represent both videos and query events in the concept space. We then compute similarity between the query event and the video in the concept space and videos similar to the query event are classified as the videos belonging to the event. We show that we significantly boost the performance using concept features from other modalities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente assistimos a um aumento exponencial do uso dos social media como meio para planear as viagens lazer, bem como procurar por informações relativas a hotéis, restaurantes e outras empresas na indústria de turismo e viagens. Os social media criaram um novo canal de distribuição, tendo este influenciado e alterado a forma como os viajantes determinam o local onde vão ficar alojados. É importante que as empresas hoteleiras compreendam o comportamento dos consumidores face aos social media e, assim, determinar qual a forma de comunicação e que informações deverão disponibilizar nos seus sites. A título de exemplo, os hotéis conseguem interagir com os clientes através das redes sociais, como o Facebook, Instagram ou Youtube, partilhar diversos tipos de conteúdos informativos e prestar assistência a questões. O presente estudo tem como objetivo compreender o uso das redes sociais, apresentando-se um maior foco na rede social Facebook, na promoção de um estabelecimento hoteleiro e, com isto, determinar se a promoção dos serviços hoteleiros através deste meio, apresenta influência na tomada de decisão de escolha de alojamento turístico. Por outro lado, pretendese analisar o impacto das avaliações/recomendações realizadas pelos consumidores presentes no Facebook. Adotou-se uma metodologia quantitativa, através de um questionário online. Para analisar as hipóteses de estudo recorreu-se a diversos testes estatísticos. Os principais resultados demonstraram que são diversos os meios online e offline em que os consumidores se baseiam para fazer a sua decisão de escolha de alojamento, sendo um destes o Facebook, que apresenta uma grande representatividade. O word-of-mouth, contabilizado através das opiniões dos antigos clientes presentes em sites de avaliações e em redes sociais revela-se uma componente determinante no processo de recolha de informação sobre determinado alojamento e consequentemente influenciador na escolha de alojamento. Por último, verificou-se que o Facebook apresenta ter um papel decisivo no processo de decisão de escolha de alojamento turístico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A computer vision system that has to interact in natural language needs to understand the visual appearance of interactions between objects along with the appearance of objects themselves. Relationships between objects are frequently mentioned in queries of tasks like semantic image retrieval, image captioning, visual question answering and natural language object detection. Hence, it is essential to model context between objects for solving these tasks. In the first part of this thesis, we present a technique for detecting an object mentioned in a natural language query. Specifically, we work with referring expressions which are sentences that identify a particular object instance in an image. In many referring expressions, an object is described in relation to another object using prepositions, comparative adjectives, action verbs etc. Our proposed technique can identify both the referred object and the context object mentioned in such expressions. Context is also useful for incrementally understanding scenes and videos. In the second part of this thesis, we propose techniques for searching for objects in an image and events in a video. Our proposed incremental algorithms use the context from previously explored regions to prioritize the regions to explore next. The advantage of incremental understanding is restricting the amount of computation time and/or resources spent for various detection tasks. Our first proposed technique shows how to learn context in indoor scenes in an implicit manner and use it for searching for objects. The second technique shows how explicitly written context rules of one-on-one basketball can be used to sequentially detect events in a game.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EU]Testu bat koherente egiten duten arrazoiak ulertzea oso baliagarria da testuaren beraren ulermenerako, koherentzia eta koherentzia-erlazioak testu bat edo gehiago koherente diren ondorioztatzen laguntzen baitigu. Lan honetan gai bera duten testu ezberdinen arteko koherentziazko 3 Cross Document Structure Theory edo CST (Radev, 2000) erlazio aztertu eta sailkatu dira. Hori egin ahal izateko, euskaraz idatziriko gai berari buruzko testuak segmentatzeko eta beraien arteko erlazioak etiketatzeko gidalerroak proposatzen dira. 10 testuz osaturiko corpusa etiketatu da; horietako 3 cluster bi etiketatzailek aztertu dute. Etiketatzaileen arteko adostasunaren berri ematen dugu. Koherentzia-erlazioak garatzea oso garrantzitsua da Hizkuntzaren Prozesamenduko hainbat sistementzat, hala nola, informazioa erauzteko sistementzat, itzulpen automatikoarentzat, galde-erantzun sistementzat eta laburpen automatikoarentzat. Etorkizunean CSTko erlazio guztiak corpus esanguratsuan aztertuko balira, testuen arteko koherentzia- erlazioak euskarazko testuen prozesaketa automatikoa bideratzeko lehenengo pausua litzateke hemen egindakoa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma ostomia de eliminação intestinal resulta de um procedimento cirúrgico que consiste na ligação de uma parte do intestino delgado ou grosso, a um orifício externo na cavidade abdominal designado de estoma. O utente portador de uma ostomia de eliminação intestinal, devido à sua situação clínica, manifesta um misto de emoções resultante do enorme impacto físico e emocional devido à doença e ao tratamento. A sua própria vida vai desencadear alterações profundas no seu EU, nos estilos de vida, nas relações familiares e sociais, na sua imagem corporal e na autoestima (Pinto, 2012). Foi objetivo deste estudo analisar a perceção que a pessoa portadora de ostomia de eliminação intestinal, seguida na Unidade Local de Saúde Nordeste (ULSNE), tem sobre a sua qualidade de vida (QV). A investigação enquadra-se no domínio da investigação observacional, optando-se pela realização de um estudo descritivo, analítico e transversal, de abordagem quantitativa. Como instrumento de colheita de dados foi utilizado um formulário com questões relativas às características sociodemográficas, a escala de Graffar e a escala de avaliação da qualidade de vida do utente ostomizado. Aceitaram participar no estudo 105 utentes portadores de eliminação intestinal. O sexo predominante é o masculino (50,5%). A classe etária mais representativa é a dos 65 aos 92 anos (78,1%) e o estado civil predominante antes (67,6%) e depois (55,2%) da cirurgia é o de casado. Quanto à atividade laboral, o abandono do trabalho a tempo inteiro, devido à nova situação clínica, foi referido por 94,3% dos inquiridos. Em relação às habilitações académicas, 46,7% sabe ler e escrever, enquadrando-se na classe social média (57,1%). A consulta de estomaterapia na ULSNE ainda não está implementada, mas os inquiridos consideram que a sua implementação seria pertinente (93,3%), facilitando principalmente a adaptação à nova realidade (40%), a ultrapassar dificuldades (28,6%), a evitar complicações/resolver os problemas (9,5%). A média da QV dos participantes neste estudo é de 279,92, superior à média teórica da escala (215), indicando os inquiridos evidenciam um bom nível de qualidade de vida. O enfermeiro estomaterapeuta é o profissional que melhor pode proporcionar toda a informação e suportes necessários, que permitam ultrapassar os problemas e as limitações sentidas pelo ostomizado e pelas pessoas significativas na sua vida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada ao Instituto Superior de Psicologia Aplicada para obtenção de grau de Mestre na especialidade de Psicologia Clínica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, tem sido evidente o crescimento exponencial das novas tecnologias e da utilização frequente de plataformas digitais. A tendência de mercado é a continuação deste aumento, contribuindo para que cada vez mais, surjam prestações de serviços e vendas de produtos no âmbito digital. As agências ocupam um lugar de destaque neste tipo de oferta, no entanto, as mais pequenas tem por vezes dificuldade em subsistir, devido à maioria do seu target serem pequenas e médias empresas. Tendo em conta esta realidade, foi criado o projeto Andamos, que consiste na criação de uma agência de marketing digital, adequada à realidade portuguesa, sendo o seu target micro, pequenas e médias empresas, mas que consiga criar uma estrutura de custos muito reduzidos, potenciando um negócio viável e lucrativo. Nesse sentido, foi desenvolvido uma descrição de projeto, que pretende detalhar o mercado através de benchmark, desenvolver o planeamento estratégico, o plano de marketing e comunicação e o modelo de negócio. Com o intuito de sustentar a validade do projeto, foi efetuado numa primeira fase um estudo, utilizando um questionário segundo o método Delphi, que demonstrou com base nas respostas apuradas, que existe necessidade no mercado, justificando a existência da Andamos. Numa segunda fase foi estudada a viabilidade do projeto, através de um planeamento financeiro, utilizando o modelo FINICIA, do IAPMEI. Por conseguinte, foi possível analisar os indicadores mais importantes, como a TIR, VAL, cash flow e payback period, entre outros, que suportaram a exequibilidade do negócio e a sua capacidade de gerar lucro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Engenharia Informática, Faculdade de Ciências e Tecnologia, Universidade do Algarve, 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado, Processamento de Linguagem Natural e Indústrias da Língua, Faculdade de Ciências Humanas e Sociais, Universidade do Algarve, 2014

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado para obtenção do grau de Mestre em Design de Produto, apresentada na Universidade de Lisboa - Faculdade de Arquitectura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.