941 resultados para Art of persuasion


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los profesores de la licenciatura en Ciencias e Tecnologías da Documentaçáo e Informaçáo (CTDI) se preparan para sacar partido de las herramientas Web 2.0 como un complemento de su actividad lectiva. En este contexto, se presenta el Grupo de Investigación PlGeCo que pretende, por un lado, implementar la utilización de herramientas Web 2.0 de tal forma que se pueda conseguir ciertas premisas que actualmente orientan la nueva generación web (colaboración, contribución, comunidad), aplicando-las á la actividad lectiva e, por otro lado, el estímulo de la producción científica de los profesores y académica de los alumnos, así como su posterior análisis. Se ha hecho una valoración de los proyectos en curso y se discuten las expectativas esperadas presentado un análisis de las perspectivas y ambiciones futuras del grupo

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No panorama socioeconómico atual, a contenção de despesas e o corte no financiamento de serviços secundários consumidores de recursos conduzem à reformulação de processos e métodos das instituições públicas, que procuram manter a qualidade de vida dos seus cidadãos através de programas que se mostrem mais eficientes e económicos. O crescimento sustentado das tecnologias móveis, em conjunção com o aparecimento de novos paradigmas de interação pessoa-máquina com recurso a sensores e sistemas conscientes do contexto, criaram oportunidades de negócio na área do desenvolvimento de aplicações com vertente cívica para indivíduos e empresas, sensibilizando-os para a disponibilização de serviços orientados ao cidadão. Estas oportunidades de negócio incitaram a equipa do projeto a desenvolver uma plataforma de notificação de problemas urbanos baseada no seu sistema de informação geográfico para entidades municipais. O objetivo principal desta investigação foca a idealização, conceção e implementação de uma solução completa de notificação de problemas urbanos de caráter não urgente, distinta da concorrência pela facilidade com que os cidadãos são capazes de reportar situações que condicionam o seu dia-a-dia. Para alcançar esta distinção da restante oferta, foram realizados diversos estudos para determinar características inovadoras a implementar, assim como todas as funcionalidades base expectáveis neste tipo de sistemas. Esses estudos determinaram a implementação de técnicas de demarcação manual das zonas problemáticas e reconhecimento automático do tipo de problema reportado nas imagens, ambas desenvolvidas no âmbito deste projeto. Para a correta implementação dos módulos de demarcação e reconhecimento de imagem, foram feitos levantamentos do estado da arte destas áreas, fundamentando a escolha de métodos e tecnologias a integrar no projeto. Neste contexto, serão apresentadas em detalhe as várias fases que constituíram o processo de desenvolvimento da plataforma, desde a fase de estudo e comparação de ferramentas, metodologias, e técnicas para cada um dos conceitos abordados, passando pela proposta de um modelo de resolução, até à descrição pormenorizada dos algoritmos implementados. Por último, é realizada uma avaliação de desempenho ao par algoritmo/classificador desenvolvido, através da definição de métricas que estimam o sucesso ou insucesso do classificador de objetos. A avaliação é feita com base num conjunto de imagens de teste, recolhidas manualmente em plataformas públicas de notificação de problemas, confrontando os resultados obtidos pelo algoritmo com os resultados esperados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Assistimos à queda de um serviço, que em muitos países, figurava como um serviço de um modelo social europeu, passando de um monopólio para um sistema de mercado liberalizado e concorrencial: o mercado energético. (EURO COOP, 2014) Em maio de 2014, o mercado livre chegou a ultrapassar os 2,8 milhões de consumidores, tendo um crescimento face a maio de 2013 de 64%, com uma taxa média mensal de 4,2%. (Entidade Reguladora dos Energéticos - ERSE, 2009). Perante a crescente adesão de consumidores para o mercado liberalizado, e suas possíveis futuras mudanças, e tendo em conta com os potenciais clientes a aderirem, foi proposto então construir a plataforma MelhorTarifa.pt . Apesar da já existência de simuladores, estes demonstram-se a ser pouco intuitivos e a não demonstrar toda a informação que o utilizador pretende bem como não existir uma imagem de marca associada a um apoio à mudança de tarifário, tendo sido estas umas das razões que levaram ao desenvolvimento do MelhorTarifa.pt. O âmbito principal deste trabalho, é fornecer uma plataforma informática grátis, imparcial, com o acréscimo até à data, em relação a outros simuladores, da disponibilização de faturas detalhadas sobre o produto que o cliente pretende adquirir, serviços de consultoria, tudo isto de forma rápida e de simples acesso. Com este trabalho pretende-se também definir o atual estado de arte de simuladores idênticos em Portugal e no estrangeiro, pretendendo-se também dar conhecimento do trabalho desenvolvido para esta dissertação, denominado como MelhorTarifa.pt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Atualmente a vantagem competitiva de uma empresa passa pela sua rápida adaptação às variações de procura do mercado, sendo necessário garantir elevados níveis de produtividade e, simultaneamente, grande flexibilidade, indispensável ao fabrico de pequenos lotes. A necessidade de ajuste do processo e a diminuição da média de vida do produto levam a paragens cada vez mais frequentes da célula de fabrico para programação e afinação, com consequentes perdas de produtividade. De forma a dar resposta a estes problemas, neste trabalho é testada a viabilidade da utilização da programação e simulação offline de tarefas de lixamento na Grohe Portugal, complementando a solução com o desenvolvimento de um novo método de afinação do programa, permitindo uma adaptação às flutuações do processo produtivo. Para isso foi necessário analisar o estado da arte dos robôs industriais na área de acabamento superficial e respetivos métodos de programação. Em seguida, após um trabalho prévio rigoroso de preparação e modelação da célula de trabalho, é possível fazer a programação offline das várias rotinas e trajetórias complexas que compõem um ciclo de lixamento de um produto, contribuindo para o aumento da qualidade do produto final sem comprometer os níveis de produtividade. Nesta dissertação são descritos e detalhados alguns dos procedimentos fulcrais no sucesso da aplicação deste método de programação. Por último é feita uma nova abordagem ao método de ajuste ponto-a-ponto convencional, desenvolvendo-se para isso um sistema de ajuste automático do programa, dotando o robô da capacidade de se adaptar às variações do processo, assegurando a consistência do mesmo. Foram realizados testes em pequena escala, extrapolando-se os resultados para a aplicação deste novo método no processo produtivo da Grohe Portugal, como forma de complemento ao método convencional de ajuste ponto-a-ponto do programa, reduzindo o tempo de paragem da célula de trabalho.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A Computação Evolutiva enquadra-se na área da Inteligência Artificial e é um ramo das ciências da computação que tem vindo a ser aplicado na resolução de problemas em diversas áreas da Engenharia. Este trabalho apresenta o estado da arte da Computação Evolutiva, assim como algumas das suas aplicações no ramo da eletrónica, denominada Eletrónica Evolutiva (ou Hardware Evolutivo), enfatizando a síntese de circuitos digitais combinatórios. Em primeiro lugar apresenta-se a Inteligência Artificial, passando à Computação Evolutiva, nas suas principais vertentes: os Algoritmos Evolutivos baseados no processo da evolução das espécies de Charles Darwin e a Inteligência dos Enxames baseada no comportamento coletivo de alguns animais. No que diz respeito aos Algoritmos Evolutivos, descrevem-se as estratégias evolutivas, a programação genética, a programação evolutiva e com maior ênfase, os Algoritmos Genéticos. Em relação à Inteligência dos Enxames, descreve-se a otimização por colônia de formigas e a otimização por enxame de partículas. Em simultâneo realizou-se também um estudo da Eletrónica Evolutiva, explicando sucintamente algumas das áreas de aplicação, entre elas: a robótica, as FPGA, o roteamento de placas de circuito impresso, a síntese de circuitos digitais e analógicos, as telecomunicações e os controladores. A título de concretizar o estudo efetuado, apresenta-se um caso de estudo da aplicação dos algoritmos genéticos na síntese de circuitos digitais combinatórios, com base na análise e comparação de três referências de autores distintos. Com este estudo foi possível comparar, não só os resultados obtidos por cada um dos autores, mas também a forma como os algoritmos genéticos foram implementados, nomeadamente no que diz respeito aos parâmetros, operadores genéticos utilizados, função de avaliação, implementação em hardware e tipo de codificação do circuito.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As cooperativas assumem um papel fundamental na economia social portuguesa, o que justifica a necessidade de um conhecimento mais aprofundado destas entidades tanto a nível jurídico como a nível contabilístico. O principal objetivo deste estudo consiste em identificar os vários tipos de resultados nas cooperativas, compreender e caraterizar o tratamento jurídico e contabilístico dos mesmos e aferir se o normativo contabilístico em vigor permite evidenciar as especificidades daqueles. Assim, utilizando uma metodologia qualitativa, com recurso à análise de conteúdo, realizou-se um estudo de caso múltiplo. Antes, porém, procedeu-se à revisão de literatura, seletiva e seminal, sobre o estado da arte dos resultados das cooperativas em Portugal. Foram identificados três tipos de resultados, os resultados cooperativos, os resultados extracooperativos e os resultados extraordinários. O estudo mostra que o tratamento jurídico e contabilístico dos resultados cooperativos não está devidamente adequado à realidade das mesmas, por duas razões: em primeiro lugar, não são claramente identificáveis na legislação em vigor os diferentes tipos de resultados; e, em segundo lugar, constata-se que os resultados nas cooperativas têm o mesmo tratamento contabilístico que os resultados das sociedades comerciais, apesar das diferenças substanciais entre as duas formas jurídicas. Concluiu-se, então que a alteração do enquadramento contabilístico aplicável às cooperativas é pertinente e necessária no sentido de impor uma contabilização separada dos resultados cooperativos e dos resultados extracooperativos e extraordinários. Esta contabilização separada é essencial, por razões fiscais mas sobretudo para que as demonstrações financeiras apresentem a imagem verdadeira e apropriada do desempenho das cooperativas. Conclui-se, de igual modo, que existe no ordenamento português um normativo contabilístico aplicável às entidades do setor não lucrativo que seria adequado para evidenciar as especificidades das cooperativas em matéria dos resultados, dado que o modelo das demonstrações dele constante permitiria o desdobramento dos resultados por atividades.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The discussion of possible scenarios for the future of Quality is on the priority list of major Quality Practitioners Societies. EOQ – European Organization for Quality (EOQ, 2014) main team for its 58th EOQ-Congress held June 2014 in Göteborg was “Managing Challenges in Quality Leadership” and ASQ - American Society for Quality (ASQ, 2015) appointed “the Future of Quality” for Quality Progress Magazine November 2015 issue. In addition, the ISO 9001:2008 revision process carried by ISO/TC 176 aims to assure that ISO 9001:2015 International Standard remains stable for the next 10 years (ISO, 2014) contributing to an increased discussion on the future of quality. The purpose of this research is to review available Quality Management approaches and outline, adding an academic perspective, expected developments for Quality within the 21st Century. This paper follows a qualitative approach, although data from international organizations is used. A literature review has been undertaken on quality management past and potential future trends. Based on these findings a model is proposed for organization quality management development and propositions for the future of quality management are advanced. Firstly, a state of the art of existing Quality Management approaches is presented, for example, like Total Quality Management (TQM) and Quality Gurus, ISO 9000 International Standards Series (with an outline of the expected changes for ISO 9001:2015), Six Sigma and Business Excellence Models.Secondly, building on theoretical and managerial approaches, a two dimensional matrix – Quality Engineering (QE - technical aspects of quality) and Quality Management (QM: soft aspects of quality) - is presented, outlining five proposed characterizations of Quality maturity levels and giving insights for applications and future developments. Literature review highlights that QM and QE may be addressing similar quality issues but their approaches are different in terms of scope breadth and intensity and they ought to complement and reciprocally reinforce one another. The challenges organizations face within the 21st century have stronger uncertainty, complexity, and differentiation. Two main propositions are advanced as relevant for 21st Century Quality: - QM importance for the sustainable success of organizations will increase and they should be aware of the larger ecosystem to be managed for improvement, possibly leading to the emergence of a new Quality paradigm, The Civilizacional Excellence paradigm. - QE should get more attention from QM and the Quality professionals will have to: a) Master and apply in wider contexts and in additional depth the Quality Tools (basic, intermediate and advanced); b) Have the soft skills needed for its success; c) Be results oriented and better understand and demonstrate the relationships between approaches and results These propositions challenge both scholars and practitioners for a sustained and supported discussion on the future of Quality. “All things are ready, if our mind be so.” (Shakespeare, Henry V, circa 1599).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os Sistemas de Gestão Técnica Centralizada (SGTC) assumem-se como essenciais nos grandes edifícios, já que permitem monitorizar, controlar, comandar e gerir, de forma facilitada, integrada e otimizada, as várias instalações existentes no edifício. O estado da arte de um SGTC baseia-se numa arquitetura distribuída, com recurso a Quadros de Gestão Técnica (QGT) que incluem Automation Servers - equipamentos nativos nos protocolos de comunicação mais comummente utilizados neste âmbito, incorporadores de funcionalidades e programações pré-definidas, e que ficarão responsáveis por integrar na sua área de influência, um conjunto de pontos de SGTC, definidos em projeto. Numa nova filosofia de instalação, integração e comunicação facilitada entre dispositivos que nos quadros elétricos geram dados relevantes para o utilizador e desencadeiam ações úteis na gestão de uma instalação, surge o novo conceito no mercado de Smart Panels, da Schneider Electric. Este sistema baseia-se numa ampla e diversa gama de possibilidades de medição e monitorização energética e da própria aparelhagem, com um sistema de comunicação com o sistema de gestão e controlo da instalação integrado no próprio quadro, dispensando assim a necessidade de um sistema externo (QGT), de recolha, comunicação e processamento de informação. Após o estudo descritivo teórico dos vários tópicos, questões e considerações relacionadas com os SGTC, os Smart Panels e a sua integração, o projeto e estudo comparativo do SGTC sem e com a integração de Smart Panels num grande centro comercial, permitiu concluir que a integração de Smart Panels num SGTC pode conferir vantagens no que diz respeito à implificação do projeto, da instalação, do comissionamento, programação, e da própria exploração da instalação elétrica, traduzindo-se numa redução dos custos normalmente elevados inerentes à mão de obra associada a todos estes processos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O desenvolvimento aplicacional é uma área em grande expansão no mercado das tecnologias de informação e como tal, é uma área que evolui rápido. Os impulsionadores para esta característica são as comunicações e os equipamentos informáticos, pois detêm características mais robustas e são cada vez mais rápidos. A função das aplicações é acompanhar esta evolução, possuindo arquiteturas mais complexas/completas visando suportar todos os pedidos dos clientes, através da produção de respostas em tempos aceitáveis. Esta dissertação aborda várias arquiteturas aplicacionais possíveis de implementar, mediante o contexto que esteja inserida, como por exemplo, um cenário com poucos ou muitos clientes, pouco ou muito capital para investir em servidores, etc. É fornecido um nivelamento acerca dos conceitos subjacentes ao desenvolvimento aplicacional. Posteriormente é analisado o estado de arte das linguagens de programação web e orientadas a objetos, bases de dados, frameworks em JavaScript, arquiteturas aplicacionais e, por fim, as abordagens para definir objetivos mensuráveis no desenvolvimento aplicacional. Foram implementados dois protótipos. Um deles, numa arquitetura multicamada com várias linguagens de programação e tecnologias. O segundo, numa única camada (monolítica) com uma única linguagem de programação. Os dois protótipos foram testados e comparados com o intuito de escolher uma das arquiteturas, num determinado cenário de utilização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfillment of the requirements for the Degree of Master of Science in Geospatial Technologies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do grau de Mestre em Engenharia Informática

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestrado em Engenharia de Informática

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RESUMO: O Registo de Saúde Electrónico (RSE) detém uma importância vital para a melhoria dos cuidados e segurança do doente, para o acesso à sua informação, por profissionais de saúde, independentemente do momento e local de prestação dos cuidados clínicos, para a garantia da confidencialidade dos dados e para a redução da despesa dos serviços de saúde. É com base nesta sua importância que, no âmbito do Mestrado em Gestão da Saúde, da Escola Nacional de Saúde Pública, desenvolvemos um trabalho de investigação, que tem como objectivos descrever o “estado da arte” dos sistemas de informação em saúde e do RSE em Portugal, Europa e América do Norte, identificar a importância do RSE para os profissionais de saúde e para o doente, e avaliar a influência de determinados factores na aceitação do RSE por parte dos profissionais de saúde. Para certos autores, os factores condicionantes da aprovação do RSE podem ser: a idade, a formação, os conhecimentos informáticos, o tempo de exercício profissional e a compreensão dos benefícios do RSE por parte dos profissionais de saúde. Desta forma, elegemos estes factores para determinar se de facto são estes os que incitam a aceitação do RSE. O estudo foi dirigido a directores de serviço, médicos, enfermeiros e enfermeiroschefes, de cinco hospitais nacionais. Aos 20 participantes deste estudo foi aplicado um questionário, constituído por questões fechadas, questões factuais, de opinião e de informação. A metodologia utilizada foi do tipo descritivo e os dados foram analisados quantitativamente. Foi utilizado o coeficiente de Spearman para avaliar a existência de relação entre as variáveis, e com o seu uso foi possível depreender que: não há evidência de relação entre a idade e a aceitação do RSE; o tempo de exercício profissional não determina a aprovação do RSE; há evidência de relação entre os conhecimentos informáticos e a aceitação do RSE; a formação na área de digitalização de dados condiciona a aprovação do sistema; há evidência de relação entre a opinião dos profissionais de saúde acerca da actuação do RSE e a sua aceitação por parte destes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RESUMO: A Diabetes Mellitus é uma doença metabólica crónica, com deficiência a nível do metabolismo dos hidratos de carbono, lípidos e proteínas, resultante de deficiências na secreção ou ação da insulina, ou de ambas, que quando não tratada antecipadamente e de modo conveniente, pode ter consequências muito graves. Dado a incidência a nível mundial da Diabetes Mellitus, torna-se de elevada importância avaliar toda a sua envolvência e estudar bem quais os critérios a ter em consideração. Este trabalho propõe-se estudar para além dos parâmetros bioquímicos relacionados com a doença - Glicose e Hemoglobina Glicada A1c (HbA1c), analisar os resultados dos últimos cinco anos (2008-2012) dos ensaios interlaboratoriais do PNAEQ, do Departamento de Epidemiologia, do Instituto Nacional de Saúde Dr. Ricardo Jorge. Foram também analisadas as metodologias utilizadas e as variações interlaboratoriais, de forma a entender qual ou quais são os parâmetros mais adequados para o seu diagnóstico e controlo. Este estudo utilizou a população de laboratórios portugueses, públicos e privados, de Portugal Continental e Ilhas, um laboratório de Angola e outro de Macau que se inscreveram no PNAEQ nestes cinco anos, sendo a amostra composta pelo n.º de participações. No programa de Química Clinica foram distribuídas 38 amostras e no programa de HbA1c foram distribuídas 22 amostras. Para a glicose, o nível de desempenho nos ensaios é na globalidade das amostras de Excelente, no entanto verifica-se que sempre que a concentração da amostra é de nível patológico, que a maioria dos ensaios o desempenho foi inferior – Bom. O método de eleição e com CV% mais baixos foi o método da hexoquinase. Para a HbA1c, o nível de desempenho nos ensaios é na globalidade das amostras de Excelente. O método de eleição e com CV% mais baixos foi o método de HPLC. O CV% para a glicose ronda desde 2010 a 2012, os 3% e para a HbA1c foi de aproximadamente 4,0% em 2012. A HbA1c tem mostrado ser uma ferramenta muito útil, importante e robusta na monitorização da Diabetes, sendo hoje em dia quase sempre requisitada em análises de rotina a diabéticos de modo a prevenir complicações que possam vir a acorrer. No futuro poderá ser um importante, senão o parâmetro de futuro, para o diagnóstico da Diabetes, no entanto, mesmo já tendo sido muito trabalhada a sua padronização, ainda existem questões por responder como quais são na realidade todos os seus interferentes, qual a verdadeira relação da HbA1c com a glicose média estimada, em todas as populações e com estudos epidemiológicos. Também a própria educação do diabético e clínico deve ser aprimorada, pelo que neste momento as PTGO e os doseamentos de glicose em jejum devem ser utilizados e encontrando-se a Norma da DGS N.º 033/2011 de acordo com as necessidades e com o estado da arte deste parâmetro. A implementação da glicose média estimada será uma mais-valia na monitorização dos diabéticos pelo que deverá ser uma das prioridades a ter em conta no futuro desta padronização, uniformizando a decisão clinica baseada nela e minimizando a dificuldade de interpretação de resultados de laboratório para laboratório. --------------ABSTRACT: Diabetes Mellitus is a chronic metabolic disease, with a deficit in the metabolism of carbohydrates, lipids and proteins, resulting from deficiencies in insulin secretion or action, or both, which if, when not early treated in a proper way, may result in very serious consequences. Given the worldwide incidence of diabetes mellitus, it is highly important to evaluate all its background and study specifically all the criteria to take into consideration. The aim of this thesis is to study and evaluate beyond the biochemical parameters related to the disease - Glucose and Glycated Haemoglobin A1c (HbA1c), analyze the results of the last five years (2008-2012) of the PNAEQ interlaboratorial tests, in the Department of Epidemiology of National Institute of Health Dr. Ricardo Jorge. It is also intended to analyze the methodologies used and the interlaboratorial variations, in order to understand the most suitable parameters for the diagnosis and control. This study was based in a population of Portuguese laboratories, public and private, of Portugal mainland and islands, a laboratory of Angola and other from Macau, who enrolled in PNAEQ in these five years, and the sample was composed by the n. º of holdings. In the Clinical Chemistry Program there were distributed 38 samples and in the program HbA1c were distributed 22 samples. For glucose, the level of performance in the total nº of the samples was Excellent; however, it was found that when the concentration level of the sample was pathological, in most of the tests the performance was Good. The most preferred method with the lowest CV% is the hexokinase method. For the HbA1c, as a whole, the samples’ tests were Excellent, at the level of performance. The method of election with the lower CV% was the HPLC. The CV% for glucose was around 3%, from 2010 to 2012 and the HbA1c was approximately 4.0% in 2012. The HbA1c method has demonstrated to be a very useful tool, important and robust for monitoring diabetes, being nowadays, almost always required in routine analysis to prevent future complications. In the future it may be an important parameter, if not the most important, for the diagnosis of diabetes. However, despite it has already been standardized, there are still some questions that need to be answered, such as, which are in fact all their interferences, which is the true connection of HbA1c, when compared with the estimated average glucose, in all populations and epidemiological studies. Moreover, the education of the patient and the doctor concerning diabetes should be improved. Nowadays, the Oral Glucose Tolerance Test (OGTT) and fasting glucose determinations should be used and, the needs and the state of the art of this parameter, should be in accordance with the Standard DGS N. º 033/2011. The Implementation of the estimated average glucose will be an added value in monitoring diabetics and, therefore, should be a priority to consider in its future standardization and clinical decision based on it, will be uniform and the difficulty of interpreting results from laboratory to laboratory will be minimal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics