942 resultados para user-centered approach
Resumo:
Inflammatory bowel diseases (IBDs) are lifelong disorders predominantly present in developed countries. In their pathogenesis, an interaction between genetic and environmental factors is involved. This practice guide, prepared on behalf of the European Society of Pathology and the European Crohn's and Colitis Organisation, intends to provide a thorough basis for the histological evaluation of resection specimens and biopsy samples from patients with ulcerative colitis or Crohn's disease. Histopathologically, these diseases are characterised by the extent and the distribution of mucosal architectural abnormality, the cellularity of the lamina propria and the cell types present, but these features frequently overlap. If a definitive diagnosis is not possible, the term indeterminate colitis is used for resection specimens and the term inflammatory bowel disease unclassified for biopsies. Activity of disease is reflected by neutrophil granulocyte infiltration and epithelial damage. The evolution of the histological features that are useful for diagnosis is time- and disease-activity dependent: early disease and long-standing disease show different microscopic aspects. Likewise, the histopathology of childhood-onset IBD is distinctly different from adult-onset IBD. In the differential diagnosis of severe colitis refractory to immunosuppressive therapy, reactivation of latent cytomegalovirus (CMV) infection should be considered and CMV should be tested for in all patients. Finally, patients with longstanding IBD have an increased risk for the development of adenocarcinoma. Dysplasia is the universally used marker of an increased cancer risk, but inter-observer agreement is poor for the categories low-grade dysplasia and indefinite for dysplasia. A diagnosis of dysplasia should not be made by a single pathologist but needs to be confirmed by a pathologist with expertise in gastrointestinal pathology.
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Artística, na especialização de Teatro na Educação
Resumo:
Mestrado (PES II), Educação Pré-Escolar e Ensino do 1.º Ciclo do Ensino Básico, 24 de Junho de 2015, Universidade dos Açores.
Resumo:
The introduction of electricity markets and integration of Distributed Generation (DG) have been influencing the power system’s structure change. Recently, the smart grid concept has been introduced, to guarantee a more efficient operation of the power system using the advantages of this new paradigm. Basically, a smart grid is a structure that integrates different players, considering constant communication between them to improve power system operation and management. One of the players revealing a big importance in this context is the Virtual Power Player (VPP). In the transportation sector the Electric Vehicle (EV) is arising as an alternative to conventional vehicles propel by fossil fuels. The power system can benefit from this massive introduction of EVs, taking advantage on EVs’ ability to connect to the electric network to charge, and on the future expectation of EVs ability to discharge to the network using the Vehicle-to-Grid (V2G) capacity. This thesis proposes alternative strategies to control these two EV modes with the objective of enhancing the management of the power system. Moreover, power system must ensure the trips of EVs that will be connected to the electric network. The EV user specifies a certain amount of energy that will be necessary to charge, in order to ensure the distance to travel. The introduction of EVs in the power system turns the Energy Resource Management (ERM) under a smart grid environment, into a complex problem that can take several minutes or hours to reach the optimal solution. Adequate optimization techniques are required to accommodate this kind of complexity while solving the ERM problem in a reasonable execution time. This thesis presents a tool that solves the ERM considering the intensive use of EVs in the smart grid context. The objective is to obtain the minimum cost of ERM considering: the operation cost of DG, the cost of the energy acquired to external suppliers, the EV users payments and remuneration and penalty costs. This tool is directed to VPPs that manage specific network areas, where a high penetration level of EVs is expected to be connected in these areas. The ERM is solved using two methodologies: the adaptation of a deterministic technique proposed in a previous work, and the adaptation of the Simulated Annealing (SA) technique. With the purpose of improving the SA performance for this case, three heuristics are additionally proposed, taking advantage on the particularities and specificities of an ERM with these characteristics. A set of case studies are presented in this thesis, considering a 32 bus distribution network and up to 3000 EVs. The first case study solves the scheduling without considering EVs, to be used as a reference case for comparisons with the proposed approaches. The second case study evaluates the complexity of the ERM with the integration of EVs. The third case study evaluates the performance of scheduling with different control modes for EVs. These control modes, combined with the proposed SA approach and with the developed heuristics, aim at improving the quality of the ERM, while reducing drastically its execution time. The proposed control modes are: uncoordinated charging, smart charging and V2G capability. The fourth and final case study presents the ERM approach applied to consecutive days.
Resumo:
OBJECTIVE:To evaluate public health dentistry practices of two different family health models. METHODS: Qualitative study conducted with data obtained from focus groups consisting of 58 dentists working in the Family Health Strategy for at least three years between August-October, 2006. The Paideia Family Health Approach was used in the city of Campinas and the Oral Health Initiative as part of the Family Health Strategy was implemented in the city of Curitiba, Southeastern and Southern Brazil, respectively. Data was analyzed using the hermeneutic-dialectic method. Analysis indicators were employed to indicate backwardness, stagnation or progress in oral health practices effective from the implementation of the strategies referred. The indicators used were: work process; interdisciplinary approach; territorialization; capacity building of human resources; health promotion practices; and responsiveness to users' demands. RESULTS: There was progress in user access to services, humanization of health care, patient welcoming and patient-provider relationship. The results related to health promotion practices, territorialization, interdisciplinary approach and resource capacity building indicated a need for technical and operational enhancements in both cities. CONCLUSIONS: Both models have brought about important advances in terms of increased access to services and humanization of health care. Universal access to oral health at all levels of complexity was not achieved in both cities studied. Local health managers and oral health program coordinators must bring more weight to bear in the arena that defines public policy priorities.
Resumo:
Ao longo dos últimos anos, as regras de associação têm assumido um papel relevante na extracção de informação e de conhecimento em base de dados e vêm com isso auxiliar o processo de tomada de decisão. A maioria dos trabalhos de investigação desenvolvidos sobre regras de associação têm por base o modelo de suporte e confiança. Este modelo permite obter regras de associação que envolvem particularmente conjuntos de itens frequentes. Contudo, nos últimos anos, tem-se explorado conjuntos de itens que surgem com menor frequência, designados de regras de associação raras ou infrequentes. Muitas das regras com base nestes itens têm particular interesse para o utilizador. Actualmente a investigação sobre regras de associação procuram incidir na geração do maior número possível de regras com interesse aglomerando itens raros e frequentes. Assim, este estudo foca, inicialmente, uma pesquisa sobre os principais algoritmos de data mining que abordam as regras de associação. A finalidade deste trabalho é examinar as técnicas e algoritmos de extracção de regras de associação já existentes, verificar as principais vantagens e desvantagens dos algoritmos na extracção de regras de associação e, por fim, desenvolver um algoritmo cujo objectivo é gerar regras de associação que envolvem itens raros e frequentes.
Resumo:
O betão é o material de construção feito pelo Homem mais utilizado no mundo. A sua composição é um processo complexo que exige um conhecimento teórico sólido e muita experiência prática, pelo que poucas pessoas estão habilitadas para o fazer e são muito requisitadas. No entanto não existe muita oferta actual de software que contemple alguns dos aspectos importantes da composição do betão, nomeadamente para o contexto europeu. Nesse sentido, foi desenvolvido um sistema de apoio à decisão chamado Betacomp, baseado num sistema pericial, para realizar estudos de composição de betão. Este contempla as normas legais portuguesas e europeias, e a partir da especificação do betão apresenta toda a informação necessária para se produzir um ensaio de betão. A aquisição do conhecimento necessário ao sistema contou com a colaboração de um especialista com longa e comprovada experiência na área da formulação e produção do betão, tendo sido construída uma base de conhecimento baseada em regras de produção no formato drl (Drools Rule Language). O desenvolvimento foi realizado na plataforma Drools.net, em C# e VB.net. O Betacomp suporta os tipos de betão mais comuns, assim como adições e adjuvantes, sendo aplicável numa grande parte dos cenários de obra. Tem a funcionalidade de fornecer explicações sobre as suas decisões ao utilizador, auxiliando a perceber as conclusões atingidas e simultaneamente pode funcionar como uma ferramenta pedagógica. A sua abordagem é bastante pragmática e de certo modo inovadora, tendo em conta parâmetros novos, que habitualmente não são considerados neste tipo de software. Um deles é o nível do controlo de qualidade do produtor de betão, sendo feito um ajuste de compensação à resistência do betão a cumprir, proporcional à qualidade do produtor. No caso dos produtores de betão, permite que indiquem os constituintes que já possuem para os poderem aproveitar (caso não haja impedimentos técnicos) , uma prática muito comum e que permitirá eventualmente uma aceitação maior da aplicação, dado que reflecte a forma habitual de agir nos produtores.
Host-symbiont interactions in the deep-sea vent mussel Bathymodiolus azoricus : a molecular approach
Resumo:
Tese de Doutoramento, Ciências do Mar, especialidade de Biologia Marinha, 19 de Dezembro de 2015, Universidade dos Açores.
Resumo:
A investigação desenvolvida no âmbito do projeto Estratégias de Intervenção socioeducativa em contextos sociais complexos enquadra-se na avaliação das políticas sociais e educativas, em particular no que diz respeito à segurança escolar em contextos marcados pela diversidade e complexidade social e cultural. O processo de avaliação centrou-se na análise das estratégias de intervenção socioeducativa relativas ao problema da violência na escola, desenvolvidas em três escolas de um concelho da Área Metropolitana de Lisboa. Partindo do pressuposto que a violência na escola é um fenómeno multideterminado e multifacetado, a pesquisa centrou-se numa abordagem que enquadra as esferas de intervenção/ação das instituições formais e dos agentes sociais enquanto mecanismos que estruturam e regulam as concepções e práticas de violência na escola. A recolha e sistematização de informação centrou-se, por um lado, nas estratégias de intervenção que têm vindo a ser desenvolvidas localmente pelas escolas, e, por outro, nas perspetivas dos diferentes intervenientes, considerando-se os alunos, osprofessores, as direções escolares e representantes das entidades e instituições locais. Metodologicamente, privilegiou-se o cruzamento de métodos de carácter extensivo e intensivo, combinando técnicas como a Observação Direta, a realização de Entrevistas, de Grupos Focais, de Questionários, e ainda, a Análise de Redes e a Análise Documental. Numa fase posterior, os diversos intervenientes participaram na discussão e análise dos resultados previamente recolhidos, e na validação conjunta de uma metodologia de intervenção que define um conjunto de estratégias gerais de combate às situações de violência na escola e nos territórios educativos. Esta metodologia é o principal produto do projeto e resulta de um processo de avaliação dinâmico e participado. A contribuição que se apresenta no VI Encontro do CIED ocupa-se dos procedimentos de avaliação desenvolvidos no âmbito deste projeto.
Resumo:
Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.
Resumo:
A educação é uma área bastante importante no desenvolvimento humano e tem vindo a adaptar-se às novas tecnologias. Tentam-se encontrar novas maneiras de ensinar de modo a obter um rendimento cada vez maior na aprendizagem das pessoas. Com o aparecimento de novas tecnologias como os computadores e a Internet, a concepção de aplicações digitais educativas cresceu e a necessidade de instruir cada vez melhor os alunos leva a que estas aplicações precisem de um interface que consiga leccionar de uma maneira rápida e eficiente. A combinação entre o ensino com o auxílio dessas novas tecnologias e a educação à distância deu origem ao e-Learning (ensino à distância). Através do ensino à distância, as possibilidades de aumento de conhecimento dos alunos aumentaram e a informação necessária tornou-se disponível a qualquer hora em qualquer lugar com acesso à Internet. Mas os cursos criados online tinham custos altos e levavam muito tempo a preparar o que gerou um problema para quem os criava. Para recuperar o investimento realizado decidiu-se dividir os conteúdos em módulos capazes de serem reaproveitados em diferentes contextos e diferentes tipos de utilizadores. Estes conteúdos modulares foram denominados Objectos de Aprendizagem. Nesta tese, é abordado o estudo dos Objectos de Aprendizagem e a sua evolução ao longo dos tempos em termos de interface com o utilizador. A concepção de um interface que seja natural e simples de utilizar nem sempre é fácil e independentemente do contexto em que se insere, requer algum conhecimento de regras que façam com que o utilizador que use determinada aplicação consiga trabalhar com um mínimo de desempenho. Na concepção de Objectos de Aprendizagem, áreas de complexidade elevada como a Medicina levam a que professores ou doutores sintam alguma dificuldade em criar um interface com conteúdos educativos capaz de ensinar com eficiência os alunos, devido ao facto de grande parte deles desconhecerem as técnicas e regras que levam ao desenvolvimento de um interface de uma aplicação. Através do estudo dessas regras e estilos de interacção torna-se mais fácil a criação de um bom interface e ao longo desta tese será estudado e proposto uma ferramenta que ajude tanto na criação de Objectos de Aprendizagem como na concepção do respectivo interface.
Resumo:
Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.
Resumo:
Esta dissertação de Mestrado pretende, numa primeira fase, identificar as condições gerais e os pressupostos da aplicação da ferramenta Análise do Valor (AV) e integrá-la nos Sistemas de Gestão da Qualidade. Pretende-se demonstrar a técnica e aumentar o seu conhecimento, assim como as várias abordagens do processo, as vantagens e os constrangimentos no seu uso, conduzir à ideia que poderá ser útil proceder a uma análise organizada e sistemática dos produtos/serviços existentes nas organizações, abrindo a hipótese a novas soluções para o produto/serviço de mais fácil produção/realização e ensaio ao menor custo. É realçada a importância do conceito da Análise do Valor demonstrando que se pode tornar numa ferramenta eficaz na melhoria dos produtos mas também de processos de fabrico e até em processos administrativos. Sendo a Qualidade entendida como um conjunto de características que um bem, produto ou serviço possui que o tornam apto para satisfazer na plenitude uma dada necessidade do seu utilizador, este trabalho também faz a ligação com os Sistemas de Gestão da Qualidade comparando dois referenciais, a Norma NP EN 12973 e a ISO 9001:2008. Numa segunda fase é realizada uma profunda abordagem à ferramenta QFD – Quality Function Deployment – como uma técnica complementar à aplicação prática da técnica AV e é realizado um estudo a um serviço pós-venda que inclui muitos dos seus conceitos e princípios. O trabalho foi realizado na empresa onde sou colaborador há cerca de 10 anos exercendo o cargo de “Service Manager Press/Post Press” ao departamento de serviço técnico e apoio ao cliente. Foi muito útil a demonstração prática para entendimento das dificuldades sentidas e dos obstáculos a ultrapassar. O trabalho termina com as conclusões do caso prático e as conclusões gerais, mencionando as definições dos aceleradores / obstáculos da aplicação da AV.
Resumo:
When a mixture is confined, one of the phases can condense out. This condensate, which is otherwise metastable in the bulk, is stabilized by the presence of surfaces. In a sphere-plane geometry, routinely used in atomic force microscope and surface force apparatus, it, can form a bridge connecting the surfaces. The pressure drop in the bridge gives rise to additional long-range attractive forces between them. By minimizing the free energy of a binary mixture we obtain the force-distance curves as well as the structural phase diagram of the configuration with the bridge. Numerical results predict a discontinuous transition between the states with and without the bridge and linear force-distance curves with hysteresis. We also show that similar phenomenon can be observed in a number of different systems, e.g., liquid crystals and polymer mixtures. (C). 2004 American Institute of Physics.
Resumo:
Finding the structure of a confined liquid crystal is a difficult task since both the density and order parameter profiles are nonuniform. Starting from a microscopic model and density-functional theory, one has to either (i) solve a nonlinear, integral Euler-Lagrange equation, or (ii) perform a direct multidimensional free energy minimization. The traditional implementations of both approaches are computationally expensive and plagued with convergence problems. Here, as an alternative, we introduce an unsupervised variant of the multilayer perceptron (MLP) artificial neural network for minimizing the free energy of a fluid of hard nonspherical particles confined between planar substrates of variable penetrability. We then test our algorithm by comparing its results for the structure (density-orientation profiles) and equilibrium free energy with those obtained by standard iterative solution of the Euler-Lagrange equations and with Monte Carlo simulation results. Very good agreement is found and the MLP method proves competitively fast, flexible, and refinable. Furthermore, it can be readily generalized to the richer experimental patterned-substrate geometries that are now experimentally realizable but very problematic to conventional theoretical treatments.