871 resultados para User-based collaborative filtering


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Service user and carer involvement (SUCI) in social work education in England is required by the profession’s regulator, the Health and Care Professions Council. However, a recent study of 83 HEIs in England reported that despite considerable progress in SUCI, there is no evidence that the learning derived from it is being transferred to social work practice. In this article we describe a study that examines the question: ‘What impact does SUCI have on the skills, knowledge and values of student social workers at the point of qualification and beyond?’ Students at universities in England and Northern Ireland completed online questionnaires and participated in focus groups, spanning a period immediately pre-qualification and between six to nine months post-qualification. From our findings, we identify four categories that influence the impact of service user involvement on students’ learning: student factors; service user and carer factors; programme factors; and practice factors; each comprises of a number of sub-categories. We propose that the model developed can be used by social work educators, service user and carer contributors and practitioners to maximise the impact of SUCI. We argue that our findings also have implications for employment-based learning routes and post-qualifying education.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Current data-intensive image processing applications push traditional embedded architectures to their limits. FPGA based hardware acceleration is a potential solution but the programmability gap and time consuming HDL design flow is significant. The proposed research approach to develop “FPGA based programmable hardware acceleration platform” that uses, large number of Streaming Image processing Processors (SIPPro) potentially addresses these issues. SIPPro is pipelined in-order soft-core processor architecture with specific optimisations for image processing applications. Each SIPPro core uses 1 DSP48, 2 Block RAMs and 370 slice-registers, making the processor as compact as possible whilst maintaining flexibility and programmability. It is area efficient, scalable and high performance softcore architecture capable of delivering 530 MIPS per core using Xilinx Zynq SoC (ZC7Z020-3). To evaluate the feasibility of the proposed architecture, a Traffic Sign Recognition (TSR) algorithm has been prototyped on a Zedboard with the color and morphology operations accelerated using multiple SIPPros. Simulation and experimental results demonstrate that the processing platform is able to achieve a speedup of 15 and 33 times for color filtering and morphology operations respectively, with a significant reduced design effort and time.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper investigates the potential improvement in signal reliability for outdoor short-range off-body communications channels at 868 MHz using the macro-diversity offered by multiple co-located base stations. In this study, ten identical hypothetical base stations were positioned equidistantly around the perimeter of a rectangle of length 6.67 m and width 3.3 m. A body worn node was placed on the central chest region of an adult male. Five scenarios, each considering different user trajectories, were then analyzed to test the efficacy of using macro-diversity when the desired link is subject to shadowing caused by the human body. A number of selection combining based macro-diversity configurations consisting of four and then ten base stations were considered. It was found that using a macro-diversity system consisting of four base stations (or equivalently signal branches), a maximum diversity gain of 22.5 dB could be obtained while implementing a 10-base station setup this figure could be improved to 25.2 dB.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Online forums are becoming a popular way of finding useful
information on the web. Search over forums for existing discussion
threads so far is limited to keyword-based search due
to the minimal effort required on part of the users. However,
it is often not possible to capture all the relevant context in a
complex query using a small number of keywords. Examplebased
search that retrieves similar discussion threads given
one exemplary thread is an alternate approach that can help
the user provide richer context and vastly improve forum
search results. In this paper, we address the problem of
finding similar threads to a given thread. Towards this, we
propose a novel methodology to estimate similarity between
discussion threads. Our method exploits the thread structure
to decompose threads in to set of weighted overlapping
components. It then estimates pairwise thread similarities
by quantifying how well the information in the threads are
mutually contained within each other using lexical similarities
between their underlying components. We compare our
proposed methods on real datasets against state-of-the-art
thread retrieval mechanisms wherein we illustrate that our
techniques outperform others by large margins on popular
retrieval evaluation measures such as NDCG, MAP, Precision@k
and MRR. In particular, consistent improvements of
up to 10% are observed on all evaluation measures

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the availability of a wide range of cloud Virtual Machines (VMs) it is difficult to determine which VMs can maximise the performance of an application. Benchmarking is commonly used to this end for capturing the performance of VMs. Most cloud benchmarking techniques are typically heavyweight - time consuming processes which have to benchmark the entire VM in order to obtain accurate benchmark data. Such benchmarks cannot be used in real-time on the cloud and incur extra costs even before an application is deployed.

In this paper, we present lightweight cloud benchmarking techniques that execute quickly and can be used in near real-time on the cloud. The exploration of lightweight benchmarking techniques are facilitated by the development of DocLite - Docker Container-based Lightweight Benchmarking. DocLite is built on the Docker container technology which allows a user-defined portion (such as memory size and the number of CPU cores) of the VM to be benchmarked. DocLite operates in two modes, in the first mode, containers are used to benchmark a small portion of the VM to generate performance ranks. In the second mode, historic benchmark data is used along with the first mode as a hybrid to generate VM ranks. The generated ranks are evaluated against three scientific high-performance computing applications. The proposed techniques are up to 91 times faster than a heavyweight technique which benchmarks the entire VM. It is observed that the first mode can generate ranks with over 90% and 86% accuracy for sequential and parallel execution of an application. The hybrid mode improves the correlation slightly but the first mode is sufficient for benchmarking cloud VMs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existing benchmarking methods are time consuming processes as they typically benchmark the entire Virtual Machine (VM) in order to generate accurate performance data, making them less suitable for real-time analytics. The research in this paper is aimed to surmount the above challenge by presenting DocLite - Docker Container-based Lightweight benchmarking tool. DocLite explores lightweight cloud benchmarking methods for rapidly executing benchmarks in near real-time. DocLite is built on the Docker container technology, which allows a user-defined memory size and number of CPU cores of the VM to be benchmarked. The tool incorporates two benchmarking methods - the first referred to as the native method employs containers to benchmark a small portion of the VM and generate performance ranks, and the second uses historic benchmark data along with the native method as a hybrid to generate VM ranks. The proposed methods are evaluated on three use-cases and are observed to be up to 91 times faster than benchmarking the entire VM. In both methods, small containers provide the same quality of rankings as a large container. The native method generates ranks with over 90% and 86% accuracy for sequential and parallel execution of an application compared against benchmarking the whole VM. The hybrid method did not improve the quality of the rankings significantly.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

One of the most important factors that affects the performance of energy detection (ED) is the fading channel between the wireless nodes. This article investigates the performance of ED-based spectrum sensing, for cognitive radio (CR), over two-wave with diffuse power (TWDP) fading channels. The TWDP fading model characterizes a variety of fading channels, including well-known canonical fading distributions, such as Rayleigh and Rician, as well as worse than Rayleigh fading conditions modeled by the two-ray fading model. Novel analytic expressions for the average probability of detection over TWDP fading that account for single-user and cooperative spectrum sensing as well as square law selection diversity reception are derived. These expressions are used to analyze the behavior of ED-based spectrum sensing over moderate, severe and extreme fading conditions, and to investigate the use of cooperation and diversity as a means of mitigating the fading effects. Our results indicate that TWDP fading conditions can significantly degrade the sensing performance; however, it is shown that detection performance can be improved when cooperation and diversity are employed. The presented outcomes enable us to identify the limits of ED-based spectrum sensing and quantify the trade-offs between detection performance and energy efficiency for cognitive radio systems deployed within confined environments such as in-vehicular wireless networks.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Learning from visual representations is enhanced when learners appropriately integrate corresponding visual and verbal information. This study examined the effects of two methods of promoting integration, color coding and labeling, on learning about probabilistic reasoning from a table and text. Undergraduate students (N = 98) were randomly assigned to learn about probabilistic reasoning from one of 4 computer-based lessons generated from a 2 (color coding/no color coding) by 2 (labeling/no labeling) between-subjects design. Learners added the labels or color coding at their own pace by clicking buttons in a computer-based lesson. Participants' eye movements were recorded while viewing the lesson. Labeling was beneficial for learning, but color coding was not. In addition, labeling, but not color coding, increased attention to important information in the table and time with the lesson. Both labeling and color coding increased looks between the text and corresponding information in the table. The findings provide support for the multimedia principle, and they suggest that providing labeling enhances learning about probabilistic reasoning from text and tables

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The genus Bursaphelenchus includes B. xylophilus (Steiner et Buhrer, 1934) Nickle, 1981, which is of world economic and quarantine importance. Distinction among several species of the pinewood nematodes species complex (PWNSC) is often difficult. Besides standard morphology, morphometrics and molecular biology, new tools are welcome to better understand this group. The computerized (or e-) key of this genus, presented in this communication, includes 74 species (complete list of valid species of the world fauna) and 35 characters, that were used by the taxonomic experts of this group, in the original descriptions. Morphology of sex organs (male spicules and female vulval region) was digitized and classified to distinguish alternative types. Several qualitative characters with overlapping character states (expressions) were transformed into the morphometric indices with the discontinuous ranges (characters of ratios of the spicule dimensions). Characters and their states (expressions) were illustrated in detail and supplied by brief user-friendly comments. E-key was created in the BIKEY identification system (Dianov & Lobanov, 1996-2004). The system has built-algorithm ranging characters depending on their diagnostic values at each step of identification. Matrix of species and the character states (structural part of the e-key database) may be easily transformed using statistical packages into the dendrograms of general phenetic similarities (UPGMA, standard distance: mean character difference). It may be useful in the detailed analysis of taxonomy and evolution of the genus and in its splitting to the species groups based on morphology. The verification of the dendrogram using the information on the species links with insect vectors and their associated plants, provided an opportunity to recognize the five clusters (xylophilus, hunti, eremus sensu stricto, tusciae and piniperdae sensu stricto), which seem to be the natural species groups. The hypothesis about the origin and the first stages of the genus evolution is proposed. A general review of the genus Bursaphelenchus is presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho situa a investigação em torno do marketing, particularmente do branding, territorial numa perspectiva holística e consubstanciadora de comportamentos, identidade e desenvolvimento territorial. Nesse âmbito, focaliza-se na problemática da amplitude e heterogeneidade de actores com capacidade de impacte na construção e transmissão da marca territorial e na necessidade da sua contemplação nos pressupostos de branding para a sustentação efectiva das marcas territoriais. A tese defendida advoga a relevância de empreender marcas territoriais assentes na colaboração e integração dos stakeholders no processo construtivo, de forma a potenciar a relação directa entre o branding, a identidade e comportamento territorial e aumentar o output da marca. Nesse sentido, essa orientação é consubstanciada sob a edificação conceptual de Stakeholders Based Branding e procede-se à exploração e aferição de contributos para o seu desenvolvimento e modelização. Empiricamente e tendo por base uma abordagem descritiva e exploratória, a investigação orienta-se a um trabalho de natureza qualitativa e interpretativa que estuda, neste âmbito e através da metodologia de Grounded Theory, 6 casos de estudo de municípios portugueses, através de 48 entrevistas em profundidade realizadas a líderes políticos e stakeholders territoriais e dados secundários. Os resultados obtidos em campo demonstram a relação entre a integração de stakeholders e o sentimento de branding e imagem territorial, reiterando que quanto mais envolvidos os stakeholders se sentem no processo construtivo da marca territorial, mais tendem a assumir a sua auto-imputação e que os territórios com posturas mais colaborativas na construção de branding são os que tendem a possuir auto-imagens e imagens públicas mais positivas. Paralelamente permitem aferir um conjunto de factores impulsores, implementados e/ou idealizados, tidos como relevantes para promover uma orientação de Stakeholders Based Branding, nos respectivos territórios. Do percurso investigativo emana um constructo de Stakeholders Based Branding, com carácter indutivo, respeitando os pressupostos da Grounded Theory e assente na modelização e constituição de proposições teóricas que visam contribuir para orientar a construção de marcas territoriais alicerçadas na integração e colaboração de stakeholders.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho tem como principal objectivo o desenvolvimento de novos materiais baseados em quitosano, seus derivados e celulose, na forma de nanofibras ou de papel. Em primeiro lugar procedeu-se à purificação das amostras comerciais de quitosano e à sua caracterização exaustiva em termos morfológicos e físicoquímicos. Devido a valores contraditórios encontrados na literatura relativamente à energia de superfície do quitosano, e tendo em conta a sua utilização como precursor de modificações químicas e a sua aplicação em misturas com outros materiais, realizou-se também um estudo sistemático da determinação da energia de superfície do quitosano, da quitina e seus respectivos homólogos monoméricos, por medição de ângulos de contacto Em todas as amostras comerciais destes polímeros identificaram-se impurezas não polares que estão associadas a erros na determinação da componente polar da energia de superfície. Após a remoção destas impurezas, o valor da energia total de superfície (gs), e em particular da sua componente polar, aumentou consideravelmente. Depois de purificadas e caracterizadas, algumas das amostras de quitosano foram então usadas na preparação de filmes nanocompósitos, nomeadamente dois quitosanos com diferentes graus de polimerização, correspondentes derivados solúveis em água (cloreto de N-(3-(N,N,N-trimetilamónio)-2- hidroxipropilo) de quitosano) e nanofibras de celulose como reforço (celulose nanofibrilada (NFC) e celulose bacteriana (BC). Estes filmes transparentes foram preparados através de um processo simples e com conotação ‘verde’ pela dispersão homogénea de diferentes teores de NFC (até 60%) e BC (até 40%) nas soluções de quitosano (1.5% w/v) seguida da evaporação do solvente. Os filmes obtidos foram depois caracterizados por diversas técnicas, tais como SEM, AFM, difracção de raio-X, TGA, DMA, ensaios de tracção e espectroscopia no visível. Estes filmes são altamente transparentes e apresentam melhores propriedades mecânicas e maior estabilidade térmica do que os correspondentes filmes sem reforço. Outra abordagem deste trabalho envolveu o revestimento de folhas de papel de E. globulus com quitosano e dois derivados, um derivado fluorescente e um derivado solúvel em água, numa máquina de revestimentos (‘máquina de colagem’) à escala piloto. Este estudo envolveu inicialmente a deposição de 1 a 5 camadas do derivado de quitosano fluorescente sobre as folhas de papel de forma a estudar a sua distribuição nas folhas em termos de espalhamento e penetração, através de medições de reflectância e luminescência. Os resultados mostraram que, por um lado, a distribuição do quitosano na superfície era homogénea e que, por outro lado, a sua penetração através dos poros do papel cessou após três deposições. Depois da terceira camada verificou-se a formação de um filme contínuo de quitosano sobre a superfície do papel. Estes resultados mostram que este derivado de quitosano fluorescente pode ser utilizado como marcador na optimização e compreensão de mecanismos de deposição de quitosano em papel e outros substratos. Depois de conhecida a distribuição do quitosano nas folhas de papel, estudou-se o efeito do revestimento de quitosano e do seu derivado solúvel em água nas propriedades finais do papel. As propriedades morfológicas, mecânicas, superficiais, ópticas, assim como a permeabilidade ao ar e ao vapor de água, a aptidão à impressão e o envelhecimento do papel, foram exaustivamente avaliadas. De uma forma geral, os revestimentos com quitosano e com o seu derivado solúvel em água tiveram um impacto positivo nas propriedades finais do papel, que se mostrou ser dependente do número de camadas depositadas. Os resultados também mostraram que os papéis revestidos com o derivado solúvel em água apresentaram melhores propriedades ópticas, aptidão à impressão e melhores resultados em relação ao envelhecimento do que os papéis revestidos com quitosano. Assim, o uso de derivados de quitosano solúveis em água em processos de revestimento de papel representa uma estratégia bastante interessante e sustentável para o desenvolvimento de novos materiais funcionais ou na melhoria das propriedades finais dos papéis. Por fim, tendo como objectivo valorizar os resíduos e fracções menos nobres da quitina e do quitosano provenientes da indústria transformadora, estes polímeros foram convertidos em polióis viscosos através de uma reacção simples de oxipropilação. Este processo tem também conotação "verde" uma vez que não requer solvente, não origina subprodutos e não exige nenhuma operação específica (separação, purificação, etc) para isolar o produto da reacção. As amostras de quitina e quitosano foram pré-activadas com KOH e depois modificadas com um excesso de óxido de propileno (PO) num reactor apropriado. Em todos os casos, o produto da reacção foi um líquido viscoso composto por quitina ou quitosano oxipropilados e homopolímero de PO. Estas duas fracções foram separadas e caracterizadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta tese investigam-se e desenvolvem-se dispositivos para processamento integralmente óptico em redes com multiplexagem densa por divisão no comprimento de onda (DWDM). O principal objectivo das redes DWDM é transportar e distribuir um espectro óptico densamente multiplexado com sinais de débito binário ultra elevado, ao longo de centenas ou milhares de quilómetros de fibra óptica. Estes sinais devem ser transportados e encaminhados no domínio óptico de forma transparente, sem conversões óptico-eléctrico-ópticas (OEO), evitando as suas limitações e custos. A tecnologia baseada em amplificadores ópticos de semicondutor (SOA) é promissora graças aos seus efeitos não-lineares ultra-rápidos e eficientes, ao potencial para integração, reduzido consumo de potência e custos. Conversores de comprimento de onda são o elemento óptico básico para aumentar a capacidade da rede e evitar o bloqueio de comprimentos de onda. Neste trabalho, são estudados e analisados experimentalmente métodos para aumentar a largura de banda operacional de conversores de modulação cruzada de ganho (XGM), a fim de permitir a operação do SOA para além das suas limitações físicas. Conversão de um comprimento de onda, e conversão simultânea de múltiplos comprimentos de onda são testadas, usando interferómetros de Mach-Zehnder com SOA. As redes DWDM de alto débito binário requerem formatos de modulação optimizados, com elevada tolerância aos efeitos nefastos da fibra, e reduzida ocupação espectral. Para esse efeito, é vital desenvolver conversores integramente ópticos de formatos de modulação, a fim de permitir a interligação entre as redes já instaladas, que operam com modulação de intensidade, e as redes modernas, que utilizam formatos de modulação avançados. No âmbito deste trabalho é proposto um conversor integralmente óptico de formato entre modulação óptica de banda lateral dupla e modulação óptica de banda lateral residual; este é caracterizado através de simulação e experimentalmente. Adicionalmente, é proposto um conversor para formato de portadora suprimida, através de XGM e modulação cruzada de fase. A interligação entre as redes de transporte com débito binário ultra-elevado e as redes de acesso com débito binário reduzido requer conversão óptica de formato de impulso entre retorno-a-zero (RZ) e não-RZ. São aqui propostas e investigadas duas estruturas distintas: uma baseada em filtragem desalinhada do sinal convertido por XGM; uma segunda utiliza as dinâmicas do laser interno de um SOA com ganho limitado (GC-SOA). Regeneração integralmente óptica é essencial para reduzir os custos das redes. Dois esquemas distintos são utilizados para regeneração: uma estrutura baseada em MZI-SOA, e um método no qual o laser interno de um GC-SOA é modulado com o sinal distorcido a regenerar. A maioria dos esquemas referidos é testada experimentalmente a 40 Gb/s, com potencial para aplicação a débitos binários superiores, demonstrado que os SOA são uma tecnologia basilar para as redes ópticas do futuro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.