144 resultados para Repositório


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Software bug analysis is one of the most important activities in Software Quality. The rapid and correct implementation of the necessary repair influence both developers, who must leave the fully functioning software, and users, who need to perform their daily tasks. In this context, if there is an incorrect classification of bugs, there may be unwanted situations. One of the main factors to be assigned bugs in the act of its initial report is severity, which lives up to the urgency of correcting that problem. In this scenario, we identified in datasets with data extracted from five open source systems (Apache, Eclipse, Kernel, Mozilla and Open Office), that there is an irregular distribution of bugs with respect to existing severities, which is an early sign of misclassification. In the dataset analyzed, exists a rate of about 85% bugs being ranked with normal severity. Therefore, this classification rate can have a negative influence on software development context, where the misclassified bug can be allocated to a developer with little experience to solve it and thus the correction of the same may take longer, or even generate a incorrect implementation. Several studies in the literature have disregarded the normal bugs, working only with the portion of bugs considered severe or not severe initially. This work aimed to investigate this portion of the data, with the purpose of identifying whether the normal severity reflects the real impact and urgency, to investigate if there are bugs (initially classified as normal) that could be classified with other severity, and to assess if there are impacts for developers in this context. For this, an automatic classifier was developed, which was based on three algorithms (Näive Bayes, Max Ent and Winnow) to assess if normal severity is correct for the bugs categorized initially with this severity. The algorithms presented accuracy of about 80%, and showed that between 21% and 36% of the bugs should have been classified differently (depending on the algorithm), which represents somewhere between 70,000 and 130,000 bugs of the dataset.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The IT capability is a organizational ability to perform activities of this role more effectively and an important mechanism in creating value. Its building process (stages of creation and development) occurs through management initiatives for improvement in the performance of their activities, using human resources and IT assets complementary responsible for the evolution of their organizational routines. This research deals with the IT capabilities related to SIG (integrated institutional management systems), built and deployed in UFRN (Universidade Federal do Rio Grande do Norte) to realization and control of administrative, academic and human resources activities. Since 2009, through cooperative agreements with federal and educational institutions of direct administration, UFRN has supported the implementation of these systems, currently involving more than 30 institutions. The present study aims to understand how IT capabilities, relevant in the design, implementation and dissemination of SIG, were built over time. This is a single case study of qualitative and longitudinal nature, performed by capturing, coding and analysis from secondary data and from semi-structured interviews conducted primarily with members of Superintenência de Informática, organizational unit responsible for SIG systems in UFRN. As a result, the technical, of internal relationship and external cooperation capabilities were identified as relevant in the successful trajectory of SIG systems, which have evolved in different ways. The technical capacity, initiated in 2004, toured the stages of creation and development until it reached the stage of stability in 2013, due to technological limits. Regarding the internal relationship capability, begun in 2006, it toured the stages of creation and development, having extended its scope of activities in 2009, being in development since then. Unlike the standard life cycle observed in the literature, the external cooperation capability was initiated by an intensity of initiatives and developments in the routines in 2009, which were decreasing to cease in 2013 in order to stabilize the technological infrastructure already created for cooperative institutions. It was still identified the start of cooperation in 2009 as an important event selection, responsible for changing or creating trajectories of evolution in all three capacities. The most frequent improvements initiatives were of organizational nature and the internal planning activity has been transformed over the routines of the three capabilities. Important resources and complementary assets have been identified as important for the realization of initiatives, such as human resources technical knowledge to the technical capabilities and external cooperation, and business knowledge, for all of them, as well as IT assets: the iproject application for control of development processes, and the document repository wiki. All these resources and complementary assets grew along the capacities, demonstrating its strategic value to SINFO/UFRN

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As empresas utilizam vários tipos de recurso para suas operações, logística, recursos financeiros, recursos humanos bem como recursos para gerar seu portfólio de produtos e serviços. No último século os gestores de empresas desenvolveram práticas e ferramentas para maximizar os resultados decorrentes da aplicação destes recursos. Esta dissertação aborda o problema da falta conhecimento a respeito do processo de mapeamento e gestão do conhecimento dentro de uma IES e objetiva propor um protótipo de mapeamento e gestão do conhecimento em uma instituição de ensino superior, para identificar as competências presentes dentro de uma IES. Esse trabalho está inserido no contexto organizacional de uma IES que, devido às constantes evoluções mercadológicas, necessita saber qual é o seu capital humano, o conhecimento que possui e quais são esses, pautado em uma ferramenta computacional. De acordo com o exposto, a dissertação segue o perfil acadêmico criando um protótipo que pode ser aplicado ao viés mercadológico. A importância da pesquisa acadêmica pode ser pautada no conhecimento que foi gerado a partir do estudo e da análise para a elaboração da dissertação; o conhecimento poderá ser replicado em outras IES, pois, a partir do protótipo construído e aplicado em uma Instituição de Ensino Superior, sua evolução ao ser utilizado/aprimorado em outra IES seria natural. A proposta e implementação de um protótipo com requisitos básicos apresentados nesta dissertação, possuem vários pontos em comum com a gestão do conhecimento, em que a ideia de desenvolver um protótipo de sistema de mapeamento de conhecimento nasce a partir de um repositório de dados (Plataforma Lattes), no qual os pesquisadores, cientistas, e alunos de programas de pós-graduação possuem seus currículos armazenados. As pesquisas e o aprimoramento técnico adquiridos com a construção dessa dissertação, com o objetivo de apresentar um protótipo de mapeamento do conhecimento utilizando ferramentas de código aberto (não pagas) para o seu desenvolvimento, tem a finalidade de identificar as competências presentes dentro de uma IES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As pesquisas e as práticas em inteligência analítica na Engenharia de Software têm crescido nas últimas décadas. As informações contidas em um repositório de software podem auxiliar engenheiros de software em suas atividades durante todas as fases do desenvolvimento de software. O uso da inteligência analítica está ajudando os profissionais da Engenharia de Software a obterem informações relevantes do repositório de software, direcionando-os para melhores tomadas de decisões. Por se tratar de um bem intangível, pode ser difícil compreender as informações geradas pelo software. Este trabalho realizou um mapeamento sistemático da literatura sobre inteligência analítica na Engenharia de Software, o que propiciou a elaboração de um arcabouço conceitual para utilização da inteligência analítica capaz de auxiliar nas atividades da Engenharia de Software. Com a finalidade de validar este arcabouço conceitual, foi construído um protótipo de uma aplicação que analisou dados de um software livre. Tal protótipo foi validado e comentado por um grupo focal formado por desenvolvedores e gestores de projetos de software de uma grande empresa da área de Tecnologia da Informação. Concluiu-se que a inteligência analítica é fortemente utilizada durante a fase de manutenção e vem crescendo sua utilização na área de Gestão e na Prática Profissional. Constatou-se que os commits podem ser bons indicadores da evolução de software e que a ferramenta desenvolvida neste trabalho permite compreender o que está sendo alterado no sistema e por que a alteração ocorreu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O alongamento coronário é um procedimento que pode envolver, ou não, técnicas cirúrgicas, e que tem como principal objetivo aumentar o tamanho da coroa clínica, assim como devolver a estética, a forma e a função às arcadas dentárias. Este procedimento realiza-se, ou por motivos estéticos ou motivos restauradores. Ultimamente, os motivos estéticos têm vindo a ganhar importância e são eles que, muitas da vezes, levam os pacientes às consultas de medicina dentária. O sorriso gengival é um desses motivos, e pode ser causado, entre outras razões por, uma erupção passiva alterada ou/e um excesso vertical maxilar. Estas são as etiologias que serão descritas neste trabalho. O aumento coronário realiza-se, também, quando há a necessidade de reabilitar um dente, quer seja com resinas compostas ou com coroas. Este, deve sempre respeitar os limites biológicos do periodonto, nomeadamente o espaço biológico. A invasão deste espaço pode por em risco a manutenção da saúde do periodonto e a viabilidade do tratamento a longo prazo, por isto, preconiza-se que deve ser deixado um espaço de 3mm, desde a crista óssea até a margem restauradora. As técnicas de alongamento coronário enumeradas e definidas ao longo desta tese são: a gengivectomia, o retalho apicalmente posicionado e a erupção dentária forçada. Cada uma delas possui as suas indicações e contra-inidcaçoes. A gengivectomia é realizada quando não há necessidade de recontorno ósseo, pelo contrário, quando essa necessidade existe opta-se pelo retalho apicalmente posicionado. A erupção forçada é uma alternativa ao alongamento cirúrgico e aplica-se, normalmente a dentes não restauráveis mas com estrutura dentária sã abaixo do da crista óssea. Um ótimo diagnóstico é o essencial para a escolha da técnica de aumento coronário que melhor se adequa a cada caso. Objetivo: O objetivo desta revisão bibliográfica tem por base a pesquisa das técnicas de alongamento coronário, começando por perceber a anatomia do periodonto, as alterações que nele acontecem antes e depois dos procedimentos de alongamento coronário, a descrição e a comparação dos mesmos. Materiais e métodos: Para a realização desta revisão foram utilizados os principais motores de busca de dados científicos como a PubMed, B-on, Medline, Scielo, Google Académico e ainda o repositório on-line da Universidade Fernando Pessoa. Foram utilizadas as seguintes palavras chaves: “altered passive eruption”, “gingivectomy”, “gingivoplasty”, “apically repositioned flap”, “surgical crown lengthening”, “biologic width”, “mucogengival junction”, “forced eruption”, “prostethic dentistry”, “gummy smile”, resultando num pesquisa de 45 artigos e duas obras literarátias de interesse. Conclusões: Foi possível concluir que existem varias técnicas de alongamento coronário, cada uma adequada a cada caso e verificou-se que existem vários motivos pelo qual se realiza essa técnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: O tratamento endodôntico (TE) pode definir-se como um procedimento comum, usado pelos profissionais da Medicina Dentária, com o objectivo de tratar infeções da polpa radicular do dente. O sucesso deste tipo de tratamento está diretamente relacionado com o controlo da infeção, e para isso, realizam-se os processos de limpeza e de desinfeção do canal radicular (CR) com o auxílio de instrumentos e soluções irrigadoras. Objetivo: O presente trabalho tem como objetivo as soluções irrigadoras em Endodontia, tendo em conta a classificação das soluções, as mais utilizadas na Endodontia e a realização da desinfeção mais adequada no tratamento endodôntico. Materiais e Métodos: Com o intuito de efetuar com sucesso esta revisão bibliográfica que nos propomos, sobre soluções irrigadoras em Endodontia, foi realizada uma pesquisa bibliográfica por dois métodos, o manual e o on-line. A pesquisa manual foi efetuada na Biblioteca da Faculdade de Ciências da Saúde da Universidade Fernando Pessoa. A pesquisa on-line foi realizada através dos motores de busca como Medline/PubMed, B-on, Elseivier, repositório Institucional da Universidade Fernando Pessoa. Conclusões: Não há nenhuma solução irrigante que apresente todas as funções desejáveis. Por conseguinte, a irrigação ideal é baseada no uso combinado de duas ou várias soluções, numa sequência específica, de forma a obter uma irrigação segura e eficaz. Porém, para os Endodontistas, o hipoclorito de sódio (NaOCl), é o irrigante de eleição devido às suas excelentes propriedades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: As infecções odontogénicas constituem uma das patologias mais prevalentes e o principal motivo para a procura de cuidados médico-dentários a nível mundial. Todos os Médicos Dentistas deverão mostrar-se aptos a realizar um rápido diagnóstico bem como decidir de forma eficaz, ponderada e devidamente fundamentada qual o tratamento a aplicar a cada caso tendo consciência que a progressão de uma infecção odontogénica é, muitas vezes, imprevisível e um tratamento tardio ou incorrecto poderá acarretar complicações que implicam risco de vida para o paciente ao comprometer os espaços faciais profundos da cabeça e pescoço. Objectivo: Esta dissertação pretende, recorrendo à literatura existente, auxiliar o Médico Dentista no diagnóstico de uma infecção odontogénica e, essencialmente, evidenciar qual o tratamento preconizado ou considerado mais eficaz para este tipo de infecções orais. Materiais e métodos: Para a execução desta revisão da literatura, foi desenvolvida uma pesquisa, entre Janeiro e Junho de 2016, recorrendo à Biblioteca Ricardo Reis da Universidade Fernando Pessoa e à Biblioteca da Faculdade de Medicina Dentária da Universidade do Porto, ao portal “DGS” e às bases de dados electrónicas: PUBMED, SCIENCEDIRECT e Repositório Institucional da Universidade de Barcelona utilizando, para esse fim, as “palavras-chave” estabelecidas. Em suma, na realização da presente dissertação, foram consultadas três obras literárias e 23 artigos científicos. Conclusão: Segundo a literatura analisada, não existe consenso absoluto sobre qual o antibiótico que deverá ser prescrito no tratamento de infecções odontogénicas. A amoxicilina continua a ser referenciada como primeira linha de tratamento e, a necessidade e as vantagens da associação desta ao ácido clavulânico, são evidenciadas por diversos autores. A clindamicina é o antibiótico que se apresenta como segunda linha de tratamento, em casos de alergia aos beta-lactâmicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes/Objetivos O Acidente Vascular Cerebral (AVC) representa, segundo a Direção-Geral de Saúde (2006), uma das principais causas de mortalidade e morbilidade a nível mundial, com grave prejuízo na qualidade de vida dos doentes . Constitui um grave problema de saúde pública em Portugal e, é também uma das causas mais frequentes de internamento hospitalar. Esta patologia acarreta, futuramente, um número crescente de pessoas que necessitarão de cuidados especiais e portanto, de cuidadores informais capacitados para assisti-los no domicilio. Objetivos:Compreender as caraterísticas sócio demográficas dos cuidadores informais da pessoa com AVC, Identificar as dificuldades dos cuidadores informais da pessoa com AVC no domicílio e analisar a sobrecarga do cuidador informal. Métodos:Revisão integrativa da literatura, pesquisa de artigos científicos recorrendo às bases de dados , LILACS, Scielo, B-on e Repositório, tendo sido pesquisados artigos em idioma Português no período entre 2005 e 2015. A pesquisa foi conduzida a partir da questão de investigação, utilizando o método PI[C]OD e as Palavras-chave: Cuidador Informal, Sobrecarga, Acidente Vascular Cerebral, Cuidador, Dificuldades, Stroke, Caregiver. Após a definição de critérios de inclusão e exclusão, recorreu-se a uma seleção rigorosa da qual resultaram 6 artigos. Resultados:Relativamente ao cuidador informal verifica-se que o sexo feminino prevalece sobre o masculino e a idade varia de 31 a 61,5 anos, são maioritariamente casados, distribuição homogénea entre o grau de parentesco "filhas" e "cônjuges" e também referem que os utentes com AVC residem no mesmo domicilio do que os seus cuidadores informais. A maioria dos estudos analisados evidenciam que as dificuldades apresentadas pelos cuidadores informais repartem-se em cinco áreas distintas: física , movimentação do utente, financeira, déficit de conhecimento e sentimentos negativos (sentidos por parte do cuidador informal). Os resultados sugerem que a maioria dos cuidadores informais apresentam sobrecarga e que quanto mais dependente é a pessoa com AVC também maior é a sobrecarga. Conclusões/Recomendações: É prioritário oferecer suporte emocional e apoiar os membros da família, estabelecendo uma relação de confiança com o cuidador informal. Desenvolver investigação nesta área, identificar as dificuldades nos cuidadores informais aquando da prestação de cuidados à pessoa com AVC no domicílio ,permitirá aos profissionais de saúde, estabelecer planos de cuidados individualizados que possam responder às necessidades específicas de cada família e à pessoa com AVC no domicílio

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antecedentes/Objetivos O Acidente Vascular Cerebral (AVC) representa, segundo a Direção-Geral de Saúde (2006), uma das principais causas de mortalidade e morbilidade a nível mundial, com grave prejuízo na qualidade de vida dos doentes . Constitui um grave problema de saúde pública em Portugal e, é também uma das causas mais frequentes de internamento hospitalar. Esta patologia acarreta, futuramente, um número crescente de pessoas que necessitarão de cuidados especiais e portanto, de cuidadores informais capacitados para assisti-los no domicilio. Objetivos:Compreender as caraterísticas sócio demográficas dos cuidadores informais da pessoa com AVC, Identificar as dificuldades dos cuidadores informais da pessoa com AVC no domicílio e analisar a sobrecarga do cuidador informal. Métodos:Revisão integrativa da literatura, pesquisa de artigos científicos recorrendo às bases de dados , LILACS, Scielo, B-on e Repositório, tendo sido pesquisados artigos em idioma Português no período entre 2005 e 2015. A pesquisa foi conduzida a partir da questão de investigação, utilizando o método PI[C]OD e as Palavras-chave: Cuidador Informal, Sobrecarga, Acidente Vascular Cerebral, Cuidador, Dificuldades, Stroke, Caregiver. Após a definição de critérios de inclusão e exclusão, recorreu-se a uma seleção rigorosa da qual resultaram 6 artigos. Resultados:Relativamente ao cuidador informal verifica-se que o sexo feminino prevalece sobre o masculino e a idade varia de 31 a 61,5 anos, são maioritariamente casados, distribuição homogénea entre o grau de parentesco "filhas" e "cônjuges" e também referem que os utentes com AVC residem no mesmo domicilio do que os seus cuidadores informais. A maioria dos estudos analisados evidenciam que as dificuldades apresentadas pelos cuidadores informais repartem-se em cinco áreas distintas: física , movimentação do utente, financeira, déficit de conhecimento e sentimentos negativos (sentidos por parte do cuidador informal). Os resultados sugerem que a maioria dos cuidadores informais apresentam sobrecarga e que quanto mais dependente é a pessoa com AVC também maior é a sobrecarga. Conclusões/Recomendações: É prioritário oferecer suporte emocional e apoiar os membros da família, estabelecendo uma relação de confiança com o cuidador informal. Desenvolver investigação nesta área, identificar as dificuldades nos cuidadores informais aquando da prestação de cuidados à pessoa com AVC no domicílio ,permitirá aos profissionais de saúde, estabelecer planos de cuidados individualizados que possam responder às necessidades específicas de cada família e à pessoa com AVC no domicílio

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução – O consentimento informado (CI) para a realização de procedimentos médicos é influenciado pela comunicação entre o médico e o doente, ainda que se desconheça o impacto de alguns dos determinantes da comunicação entre estes dois intervenientes. Objetivo – Identificar e analisar os determinantes da comunicação entre o médico e o doente que influenciam o dever ético de informar para obter um CI. Métodos – Pesquisaram-se artigos de investigação originais, escritos em Portugal entre janeiro de 2005 e março de 2015, nas bases de dados eletrónicas Google Académico, PubMed, B-ON e no Repositório Científico de Acesso Aberto de Portugal, utilizando as palavras-chave ‘consentimento informado’, ‘médico’ e ‘doente‘ ou ‘informed consent’, ‘doctor’ e ‘patient’. Resultados – Identificaram-se cinco artigos que obedeciam aos critérios de inclusão e verificou-se a existência de determinantes da comunicação na relação médico-doente que influenciam o CI livre e esclarecido. Conclusão – O conhecimento da importância dos determinantes da comunicação que influenciem o CI pode ajudar na interação médico-doente e no desenvolvimento de medidas para melhorar a qualidade da prestação de cuidados de saúde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A ligeireza com que a tecnologia se desenvolve e a concorrência geral que se estabeleceram nos últimos anos na nossa sociedade, conduzem a uma exigência crescente de cidadãos mais capazes, criadores e inovadores. A sedução e o fascínio causados por essa mesma tecnologia nos jovens estudantes levam a uma distância frequentemente da sala de aula, sempre que esta persiste em resistir às mudanças do exterior. O importante é que haja uma articulação entre as preferências e as capacidades dos estudantes, em relação à tecnologia, através de práticas pedagógicas que permitam um “saber ensinar” mais aliciante e que despertem o interesse intelectual e a desejo para aprender. Este projecto centrou-se na pesquisa do e-Portefólio reflexivo e na contribuição das potencialidades do software Mahara para uma aprendizagem activa e reflexiva. Optamos por esta temática por ser a que melhor se adequa às necessidades/especificidades dos nossos alunos, e porque o Mahara permite que cada autor controle a informação (artefactos) que deseja conter no seu e-portefólio e partilhar com os outros usuários, o que o torna diferente de outros softwares de e-portefólios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo como fonte de dados o repositório BENANCIB - Questões em Rede, esta pesquisa tem como objetivo mapear sistematicamente a produção científica sobre Gestão do Conhecimento, publicada nos anais do Encontro Nacional de Pesquisa em Ciência da Informação (ENANCIB), desde sua primeira edição. Utilizou como metodologia o mapeamento sistemático, de natureza exploratória. Este mapeamento é um procedimento baseado em evidências. Originalmente utilizado na área médica, tem sido adotado, nos últimos anos, por outras áreas do conhecimento, inclusive pela Ciência da Informação. A pesquisa permitiu rigorosa revisão da produção científica em Gestão do Conhecimento, além de projetar estudos futuros que venham contribuir para o processo de construção epistemológica, ontológica, metodológica e prática da Gestão do Conhecimento. Para este fim, foram estabelecidas taxonomias de classificação conceitual, de abordagens gerais e de perspectivas interdisciplinares. De acordo com os resultados, a abordagem econômica e organizacional prevalece nas publicações analisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução da ciência impacta diretamente a comunicação científica. Para conhecer o desenvolvimento desta temática, propôs-se como objetivo geral: Analisar a evolução da produção científica em “Comunicação da Ciência” publicada nos anais do ENANCIB no período 1994-2014. Para alcançar esse objetivo, determinaram-se os seguintes objetivos específicos: Levantar os trabalhos produzidos durante o período 2003-2014; Identificar os autorias e coautorias; Identificar os autores mais produtivos. Trata-se de uma pesquisa em andamento, caracterizada como documental do tipo exploratório-descritiva, tendo como locus da coleta de dados o Repositório Questões em Rede BENANCIB. Nesta pesquisa, consideram-se o GT7 Produção e Comunicação da Informação em CT&I, bem como os GTs anteriores - Produção Científica/Literatura Cinza; Comunicação Científica; Comunicação e Produção Científica/Literatura Cinza; Organização do Conhecimento e Representação da Informação. Os dados preliminares indicam que no período foram apresentados, nas 15 edições do evento, 2554 comunicações. Os dados, ora apresentados, se referem ao período 2003-2014, uma vez que os trabalhos apresentados entre 1994 a 2002, não possuem palavras-chave, o que demanda a leitura dos resumos, atividade que será feita em etapa posterior. Dos 146 trabalhos recuperados, apenas 34 (23,3%) apresentam autoria individual, enquanto os 112 remanescentes (88,7%) são realizados em coautoria.