925 resultados para Epistemic modality


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tede de Doutoramento, na especialidade de Ciências Políticas apresentada à FDUNL

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Apesar de toda a evolução farmacológica e de meios complementares de diagnóstico possível nos últimos anos, o enfarte agudo do miocárdio e a morte súbita continuam a ser a primeira manifestação da aterosclerose coronária para muitos doentes, que estavam previamente assintomáticos. Os exames complementares de diagnóstico tradicionalmente usados para avaliar a presença de doença coronária, baseiam‐se na documentação de isquémia do miocárdio e por este motivo a sua positividade depende da presença de lesões coronárias obstrutivas. As lesões coronárias não obstrutivas estão também frequentemente implicadas no desenvolvimento de eventos coronários. Apesar de o risco absoluto de instabilização por placa ser superior para as lesões mais volumosas e obstrutivas, estas são menos prevalentes do que as placas não obstrutivas e assim, por questões probabilísticas, os eventos coronários resultam com frequência da rotura ou erosão destas últimas. Estudos recentes de imagiologia intracoronária avançada forneceram evidência de que apesar de ser possível identificar algumas características de vulnerabilidade em placas associadas ao desenvolvimento subsequente de eventos coronários, a sua sensibilidade e especificidade é muito baixa para aplicação clínica. Mais do que o risco associado a uma placa em particular, para o doente poderá ser mais importante o risco global da sua árvore coronária reflexo da soma das probabilidade de todas as suas lesões, sendo que quanto maior for a carga aterosclerótica maior será o seu risco. A angio TC cardíaca é a mais recente técnica de imagem não invasiva para o estudo da doença coronária e surgiu nos últimos anos fruto de importantes avanços na tecnologia de TC multidetectores. Estes avanços, permitiram uma progressiva melhoria da resolução espacial e temporal, contribuindo para a melhoria da qualidade dos exames, bem como uma significativa redução da dose de radiação. A par desta evolução tecnológica, foi aumentando a experiência e gerada mais evidência científica, tornando a angio TC cardíaca cada vez mais robusta na avaliação da doença coronária e aumentando a sua aplicabilidade clínica. Mais recentemente apareceram vários trabalhos que validaram o seu valor prognóstico, assinalando a sua chegada à idade adulta. Para além de permitir excluir a presença de doença coronária e de identificar a presença de estenoses significativas, a angio TC cardíaca permite identificar a presença de lesões coronárias não obstrutivas, característica impar desta técnica como modalidade de imagem não invasiva. Ao permitir identificar a totalidade das lesões ateroscleróticas (obstrutivas e não obstrutivas), a 18 angio TC cardíaca poderá fornecer uma quantificação da carga aterosclerótica coronária total, podendo essa identificação ser útil na estratificação dos indivíduos em risco de eventos coronários. Neste trabalho foi possível identificar preditores demográficos e clínicos de uma elevada carga aterosclerótica coronária documentada pela angioTC cardíaca, embora o seu poder discriminativo tenha sido relativamente modesto, mesmo quando agrupados em scores clínicos. Entre os vários scores, o desempenho foi um pouco melhor para o score de risco cardiovascular Heartscore. Estas limitações espelham a dificuldade de prever apenas com base em variáveis clínicas, mesmo quando agrupadas em scores, a presença e extensão da doença coronária. Um dos factores de risco clássicos, a obesidade, parece ter uma relação paradoxal com a carga aterosclerótica, o que pode justificar algumas limitações da estimativa com base em scores clínicos. A diabetes mellitus, por outro lado, foi um dos preditores clínicos mais importantes, funcionando como modelo de doença coronária mais avançada, útil para avaliar o desempenho dos diferentes índices de carga aterosclerótica. Dada a elevada prevalência de placas ateroscleróticas identificáveis por angio TC na árvore coronária, torna-‐se importante desenvolver ferramentas que permitam quantificar a carga aterosclerótica e assim identificar os indivíduos que poderão eventualmente beneficiar de medidas de prevenção mais intensivas. Com este objectivo, foi desenvolvido um índice de carga aterosclerótica que reúne a informação global acerca da localização, do grau de estenose e do tipo de placa, obtida pela angio TC cardíaca, o CT--‐LeSc. Este score poderá vir a ser uma ferramenta útil para quantificação da carga aterosclerótica coronária, sendo de esperar que possa traduzir a informação prognóstica da angio TC cardíaca. Por fim, o conceito de árvore coronária vulnerável poderá ser mais importante do que o da placa vulnerável e a sua identificação pela angio TC cardíaca poderá ser importante numa estratégia de prevenção mais avançada. Esta poderá permitir personalizar as medidas de prevenção primária, doseando melhor a sua intensidade em função da carga aterosclerótica, podendo esta vir a constituir uma das mais importantes indicações da angio TC cardíaca no futuro.---------------- ABSTRACT Despite the significant advances made possible in recent years in the field of pharmacology and diagnostic tests, acute yocardial infarction and sudden cardiac death remain the first manifestation of coronary atherosclerosis in a significant proportion of patients, as many were previously asymptomatic. Traditionally, the diagnostic exams employed for the evaluation of possible coronary artery disease are based on the documentation of myocardial ischemia and, in this way, they are linked to the presence of obstructive coronary stenosis. Nonobstructive coronary lesions are also frequently involved in the development of coronary events. Although the absolute risk of becoming unstable per plaque is higher for more obstructive and higher burden plaques, these are much less frequent than nonobstructive lesions and therefore, in terms of probability for the patient, coronary events are often the result of rupture or erosion of the latter ones. Recent advanced intracoronary imaging studies provided evidence that although it is possible to identify some features of vulnerability in plaques associated with subsequente development of coronary events, the sensitivity and sensibility are very limited for clinical application. More important than the individual risk associated with a certain plaque, for the patient it might be more important the global risk of the total coronary tree, as reflected by the sum of the diferent probabilities of all the lesions, since the higher the coronary Atherosclerotic burden, the higher the risk for the patient. Cardiac CT or Coronary CT angiography is still a young modality. It is the most recente noninvasive imaging modality in the study of coronary artery disease and its development was possible due to important advances in multidetector CT technology. These allowed significant improvements in temporal and spatial resolution, leading to better image quality and also some impressive reductions in radiation dose. At the same time, the increasing experience with this technique lead to a growing body of scientific evidence, making cardiac CT a robust imaging tool for the evaluation of coronary artery disease and increased its clinical indications. More recently, several publications documented its prognostic value, marking the transition of cardiac CT to adulthood. Besides being able to exclude the presence of coronary artery disease and of obstructive lesions, Cardiac CT allows also the identification of nonobstructive lesions, making this a unique tool in the field of noninvasive imaging modalities. By evaluating both obstructive and nonobstructive lesions, cardiac CT can provide for the quantification of total coronary atherosclerotic burden, and this can be useful to stratify the risk of future coronary events. In the present work, it was possible to identify significant demographic and clinical predictors of a high coronary atherosclerotic burden as assessed by cardiac CT, but with modest odds ratios, even when the individual variables were gathered in clinical scores. Among these diferent clinical scores, the performance was better for the Heartscore, a cardiovascular risk score. This modest performance underline the limitations on predicting the presence and severity of coronary disease based only on clinical variables, even when optimized together in risk scores, One of the classical risk factors, obesity, had in fact a paradoxical relation with coronary atherosclerotic burden and might explain some of the limitations of the clinical models. On the opposite, diabetes mellitus was one of the strongest clinical predictors, and was considered to be a model of more advanced coronary disease, useful to evaluate the performance of diferent plaque burden scores. In face of the high prevalence of plaques that can be identified in the coronary tree of patients undergoing cardiac CT, it is of utmost importance to develop tools to quantify the total coronary atherosclerotic burden providing the identification of patients that could eventually benefit from more intensive preventive measures. This was the rational for the development of a coronary atherosclerotic burden score, reflecting the comprehensive information on localization, degree of stenosis and plaque composition provided by cardiac CT – the CT-LeSc. This score may become a useful tool to quantify total coronary atherosclerotic burden and is expected to convey the strong prognostic information of cardiac CT. Lastly, the concept of vulnerable coronary tree might become more important than the concept of the vulnerable plaque and his assessment by cardiac CT Might become important in a more advance primary prevention strategy. This Could lead to a more custom-made primary prevention, tailoring the intensity of preventive measures to the atherosclerotic burden and this might become one of the most important indications of cardiac CT In the near future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Epistemology in philosophy of mind is a difficult endeavor. Those who believe that our phenomenal life is different from other domains suggest that self-knowledge about phenomenal properties is certain and therefore privileged. Usually, this so called privileged access is explained by the idea that we have direct access to our phenomenal life. This means, in contrast to perceptual knowledge, self-knowledge is non-inferential. It is widely believed that, this kind of directness involves two different senses: an epistemic sense and a metaphysical sense. Proponents of this view often claim that this is due to the fact that we are acquainted with our current experiences. The acquaintance thesis, therefore, is the backbone in justifying privileged access. Unfortunately the whole approach has a profound flaw. For the thesis to work, acquaintance has to be a genuine explanation. Since it is usually assumed that any knowledge relation between judgments and the corresponding objects are merely causal and contingent (e.g. in perception), the proponent of the privileged access view needs to show that acquaintance can do the job. In this thesis, however, I claim that the latter cannot be done. Based on considerations introduced by Levine, I conclude that this approach involves either the introduction of ontologically independent properties or a rather obscure knowledge relation. A proper explanation, however, cannot employ either of the two options. The acquaintance thesis is, therefore, bound to fail. Since the privileged access intuition seems to be vital to epistemology within the philosophy of mind, I will explore alternative justifications. After discussing a number of options, I will focus on the so called revelation thesis. This approach states that by simply having an experience with phenomenal properties, one is in the position to know the essence of those phenomenal properties. I will argue that, after finding a solution for the controversial essence claim, this thesis is a successful replacement explanation which maintains all the virtues of the acquaintance account without necessarily introducing ontologically independent properties or an obscure knowledge relation. The overall solution consists in qualifying the essence claim in the relevant sense, leaving us with an appropriate ontology for phenomenal properties. On the one hand, this avoids employing mysterious independent properties, since this ontological view is physicalist in nature. On the other hand, this approach has the right kind of structure to explain privileged self-knowledge of our phenomenal life. My final conclusion consists in the claim that the privileged access intuition is in fact veridical. It cannot, however, be justified by the popular acquaintance approach, but rather, is explainable by the controversial revelation thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objects matter when professionals collaborate to create new products. Chapter 1 explains the intention of this work, to apply theories on objects in the empirical context of fashion design. Chapter 2 addresses the question of how creative professionals learn about and use strategy tools to turn their artistic fame into a commercial success. For Chapter 3 I collected ethnographic data on the development of a seasonal collection from the idea to the presentation at Fashion Week. The result is a deep insight into the collaborative processes and material objects used when a stable team of designers works with several outside experts. Chapter 4 applies the knowledge of the role of objects in fashion design gained during the ethnography in the context of online co-creation and crowd sourced fashion items. The synthesis of the empirical studies allows me to present the conceptual leap in Chapter 5. In the theoretical essay I review the findings on the role of objects in collaborations in relation to practice theory, present the new concept of the comprehensive object and conclude by stating the possibilities for future research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Epstein-Barr virus (EBV)-related post-transplant lymphoproliferative disease (PTLD) is one of the most serious complications associated with solid organ and hematopoietic stem cell transplantation. PTLD is most frequently seen with primary EBV infection post-transplant, a common scenario for pediatric solid organ recipients. Risk factors for infection or reactivation of EBV following solid organ transplant are stronger immunosuppressive therapy regimens, and being seronegative for receptor. For hematopoietic stem cell transplantation, the risk factors relate to the type of transplant, human leukocyte antigen disparity, the use of stronger immunosuppressants, T-cell depletion, and severe graft-versus-host disease. Mortality is high, and most frequent in patients who develop PTLD in the first six months post-transplant. The primary goal of this article is to provide an overview of the clinical manifestations, diagnosis, accepted therapies, and management of EBV infection in transplant recipients, and to suggest that the adoption of monitoring protocols could contribute to a reduction in related complications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMÁRIO - O desafio atual da Saúde Pública é assegurar a sustentabilidade financeira do sistema de saúde. Em ambiente de recursos escassos, as análises económicas aplicadas à prestação dos cuidados de saúde são um contributo para a tomada de decisão que visa a maximização do bem-estar social sujeita a restrição orçamental. Portugal é um país com 10,6 milhões de habitantes (2011) com uma incidência e prevalência elevadas de doença renal crónica estadio 5 (DRC5), respetivamente, 234 doentes por milhão de habitantes (pmh) e 1.600 doentes/pmh. O crescimento de doenças associadas às causas de DRC, nomeadamente, diabetes Mellitus e hipertensão arterial, antecipam uma tendência para o aumento do número de doentes. Em 2011, dos 17.553 doentes em tratamento substitutivo renal, 59% encontrava-se em programa de hemodiálise (Hd) em centros de diálise extra-hospitalares, 37% viviam com um enxerto renal funcionante e 4% estavam em diálise peritoneal (SPN, 2011). A lista ativa para transplante (Tx) renal registava 2.500 doentes (SPN 2009). O Tx renal é a melhor modalidade terapêutica pela melhoria da sobrevida, qualidade de vida e relação custo-efetividade, mas a elegibilidade para Tx e a oferta de órgãos condicionam esta opção. Esta investigação desenvolveu-se em duas vertentes: i) determinar o rácio custo-utilidade incremental do Tx renal comparado com a Hd; ii) avaliar a capacidade máxima de dadores de cadáver em Portugal, as características e as causas de morte dos dadores potenciais a nível nacional, por hospital e por Gabinete Coordenador de Colheita e Transplantação (GCCT), e analisar o desempenho da rede de colheita de órgãos para Tx. Realizou-se um estudo observacional/não interventivo, prospetivo e analítico que incidiu sobre uma coorte de doentes em Hd que foi submetida a Tx renal. O tempo de seguimento mínimo foi de um ano e máximo de três anos. No início do estudo, colheram-se dados sociodemográficos e clínicos em 386 doentes em Hd, elegíveis para Tx renal. A qualidade de vida relacionada com a saúde (QVRS) foi avaliada nos doentes em Hd (tempo 0) e nos transplantados, aos três, seis, 12 meses, e depois, anualmente. Incluíram-se os doentes que por falência do enxerto renal transitaram para Hd. Na sua medição, utilizou-se um instrumento baseado em preferências da população, o EuroQol-5D, que permite o posterior cálculo dos QALY. Num grupo de 82 doentes, a QVRS em Hd foi avaliada em dois tempos de resposta o que permitiu a análise da sua evolução. Realizou-se uma análise custo-utilidade do Tx renal comparado com a Hd na perspetiva da sociedade. Identificaram-se os custos diretos, médicos e não médicos, e as alterações de produtividade em Hd e Tx renal. Incluíram-se os custos da colheita de órgãos, seleção dos candidatos a Tx renal e follow-up dos dadores vivos. Cada doente transplantado foi utilizado como controle de si próprio em diálise. Avaliou-se o custo médio anual em programa de Hd crónica relativo ao ano anterior à Tx renal. Os custos do Tx foram avaliados prospetivamente. Considerou-se como horizonte temporal o ciclo de vida nas duas modalidades. Usaram-se taxas de atualização de 0%, 3% e 5% na atualização dos custos e QALY e efetuaram-se análises de sensibilidade one way. Entre 2008 e 2010, 65 doentes foram submetidos a Tx renal. Registaram-se, prospetivamente, os resultados em saúde incluíndo os internamentos e os efeitos adversos da imunossupressão, e o consumo dos recursos em saúde. Utilizaram-se modelos de medidas repetidas na avaliação da evolução da QVRS e modelos de regressão múltipla na análise da associação da QVRS e dos custos do transplante com as características basais dos doentes e os eventos clínicos. Comparativamente à Hd, observou-se melhoria da utilidade ao 3º mês de Tx e a qualidade de vida aferida pela escala EQ-VAS melhorou em todos os tempos de observação após o Tx renal. O custo médio da Hd foi de 32.567,57€, considerado uniforme ao longo do tempo. O custo médio do Tx renal foi de 60.210,09€ no 1º ano e 12.956,77€ nos anos seguintes. O rácio custo-utilidade do Tx renal vs Hd crónica foi de 2.004,75€/QALY. A partir de uma sobrevivência do enxerto de dois anos e cinco meses, o Tx associou-se a poupança dos custos. Utilizaram-se os dados nacionais dos Grupos de Diagnóstico Homogéneos e realizou-se um estudo retrospectivo que abrangeu as mortes ocorridas em 34 hospitais com colheita de órgãos, em 2006. Considerou-se como dador potencial o indivíduo com idade entre 1-70 anos cuja morte ocorrera a nível hospitalar, e que apresentasse critérios de adequação à doação de rim. Analisou-se a associação dos dadores potenciais com características populacionais e hospitalares. O desempenho das organizações de colheita de órgãos foi avaliado pela taxa de conversão (rácio entre os dadores potenciais e efetivos) e pelo número de dadores potenciais por milhão de habitantes a nível nacional, regional e por Gabinete Coordenador de Colheita e Transplantação (GCCT). Identificaram-se 3.838 dadores potenciais dos quais 608 apresentaram códigos da Classificação Internacional de Doenças, 9.ª Revisão, Modificações Clínicas (CID- 9-MC) que, com maior frequência, evoluem para a morte cerebral. O modelo logit para dados agrupados identificou a idade, o rácio da lotação em Unidades de Cuidados Intensivos e lotação de agudos, existência de GCCT e de Unidade de Transplantação, e mortalidade por acidente de trabalho como fatores preditivos da conversão dum dador potencial em efetivo e através das estimativas do modelo logit quantificou-se a probabilidade dessa conversão. A doação de órgãos deve ser assumida como uma prioridade e as autoridades em saúde devem assegurar o financiamento dos hospitais com programas de doação, evitando o desperdício de órgãos para transplantação, enquanto um bem público e escasso. A colheita de órgãos deve ser considerada uma opção estratégica da atividade hospitalar orientada para a organização e planeamento de serviços que maximizem a conversão de dadores potenciais em efetivos incluindo esse critério como medida de qualidade e efetividade do desempenho hospitalar. Os resultados deste estudo demonstram que: 1) o Tx renal proporciona ganhos em saúde, aumento da sobrevida e qualidade de vida, e poupança de custos; 2) em Portugal, a taxa máxima de eficácia da conversão dos dadores cadavéricos em dadores potenciais está longe de ser atingida. O investimento na rede de colheita de órgãos para Tx é essencial para assegurar a sustentabilidade financeira e promover a qualidade, eficiência e equidade dos cuidados em saúde prestados na DRC5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE: Enteral alimentation is the preferred modality of support in critical patients who have acceptable digestive function and are unable to eat orally, but the advantages of continuous versus intermittent administration are surrounded by controversy. With the purpose of identifying the benefits and complications of each technique, a prospective controlled study with matched subjects was conducted. PATIENTS AND METHODS: Twenty-eight consecutive candidates for enteral feeding were divided into 2 groups (n = 14 each) that were matched for diagnosis and APACHE II score. A commercial immune-stimulating polymeric diet was administered via nasogastric tube by electronic pump in the proportion of 25 kcal/kg/day, either as a 1-hour bolus every 3 hours (Group I), or continuously for 24 hours (Group II), over a 3-day period. Anthropometrics, biochemical measurements, recording of administered drugs and other therapies, thorax X-ray, measurement of abdominal circumference, monitoring of gastric residue, and clinical and nutritional assessments were performed at least once daily. The principal measured outcomes of this protocol were frequency of abdominal distention and pulmonary aspiration, and efficacy in supplying the desired amount of nutrients. RESULTS: Nearly half of the total population (46.4%) exhibited high gastric residues on at least 1 occasion, but only 1 confirmed episode of pulmonary aspiration occurred (3.6%). Both groups displayed a moderate number of complications, without differences. Food input during the first day was greater in Group II (approximately 20% difference), but by the third day, both groups displayed similarly small deficits in total furnished volume of about 10%, when compared with the prescribed diet. CONCLUSIONS: Both administration modalities permitted practical and effective administration of the diet with frequent registered abnormalities but few clinically significant problems. The two groups were similar in this regard, without statistical differences, probably because of meticulous technique, careful monitoring, strict patient matching, and conservative amounts of diet employed in both situations. Further studies with additional populations, diagnostic groups, and dietetic prescriptions should be performed in order to elucidate the differences between these commonly used feeding modalities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Splenectomy is the best available treatment for severe forms of hereditary spherocytosis, idiopathic thrombocytopenic purpura, and other hematologic conditions when these prove refractory to conservative management. It has been employed for many decades with low mortality and favorable remission rates. The use of laparoscopic splenectomy in recent years has been rapidly and even enthusiastically adopted in this field. However, the exact role of laparoscopic versus open surgery for hematologic diseases is still debated. In this study of 58 adult patients, laparoscopic procedures were compared with conventional splenectomies for similar indications. METHODS: All patients were operated on within an 8-year period. Subjects underwent similar procedures under the supervision of the same surgical school and were compared regarding age, gender, body mass index, and diagnosis. Laparoscopically managed cases (Group I, n = 30) were prospectively followed according to a written protocol, whereas the same investigation was retrospectively done with regard to traditional laparotomy (Group II, n = 28). Methods included general and demographic findings, duration and technical steps of operation, blood loss, weight of spleen, need for conversion (in minimally invasive subjects), intraoperative and postoperative complications, time until realimentation, postoperative hospitalization, mortality, and late follow-up including recurrence rate. RESULTS: Idiopathic thrombocytopenic purpura was the surgical indication in over 50% of the patients in both groups, but familial spherocytosis, thalassemia, myelodysplasia, and lymphomas were also represented in this series. Laparoscopic procedures took more time to perform (P = 0.004), and postoperative hospitalization was 2 days shorter, but this difference was not statistically significant. Postoperative hematocrit and volume of blood transfusions was equivalent, although the laparoscopic cases had a somewhat lower preoperative hematocrit (NS) and displayed better recovery for this measurement (P = 0.03). More patients in Group I were able to accept oral food on the first day than subjects undergoing conventional operations (P < 0.05). Relatively few conversions were necessary during the minimally invasive surgeries (13.3%), and postoperative early and late complications as well as recurrences occurred in similar proportions. Also, the mean weight of the spleen was not statistically different between the groups, although there was a marked numerical tendency toward larger masses in conventional procedures. No spleen in Group I exceeded 2.0 kg, whereas in Group II values up to 4.0 kg occurred, and the mean weight was 50% higher in the latter group. CONCLUSIONS: 1) Minimally invasive splenectomy was essentially comparable to open surgery with regard to safety, efficacy, and late results; 2) Advantages concerning shorter postoperative hospitalization could not be shown, despite earlier food intake and a non-significant tendency toward earlier discharge; 3) This new modality should be considered an option in cases of hematologic conditions whenever the spleen is not hugely enlarged.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente investigação procura inscrever-se no domínio da epistemologia dos estudos literários, fazendo apelo a uma abordagem interdisciplinar que aponta para a necessidade de um comparatismo literário africano e, ao mesmo tempo, mundial. O conceito-chave com que operamos neste trabalho é o de disciplinarização, tendo em conta o seu potencial explicativo para entender o processo que nos irá conduzir à integração dos Estudos Literários Africanos no sistema disciplinar actual. Por disciplinarização entendemos o processo de definição que consiste na demarcação de uma determinada disciplina, por força de dinâmicas endógenas e exógenas, durante o qual se transita de uma fase pré-disciplinar para outra disciplinar, admitindo-se a existência de uma compatibilidade entre os fundamentos epistemológicos e metodológicos da produção e transmissão de conhecimentos e, por outro lado, a consagração da institucionalidade da disciplina como objecto de estudo. A profissionalização disciplinar será uma consequência desse processo e da formação de comunidades de agentes epistémicos que, conhecendo profundamente a história e os universos de referência da disciplina, sejam capazes de aplicar as metodologias mais adequadas no domínio da investigação e do ensino. Para compreender os fundamentos epistemológicos dos Estudos Literários Africanos, importa refletir sobre o momento a partir do qual se constituem como campo disciplinar na história da produção do conhecimento sobre o continente africano. Por outro lado, com o presente trabalho pretende-se avaliar o estatuto disciplinar da Literatura Angolana, num exercício que procura justificar as determinações da epistemologia disciplinar, operacionalizando os sentidos em que se pode analisar o conceito de disciplina. Deste modo, a atribuição do referido estatuto pressupõe o domínio de um instrumental teórico que implica a descrição dos tipos de conhecimento veiculados através dos processos de transmissão que caracterizam as disciplinas escolares e as disciplinas académicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relationships between accuracy and speed of decision-making, or speed-accuracy tradeoffs (SAT), have been extensively studied. However, the range of SAT observed varies widely across studies for reasons that are unclear. Several explanations have been proposed, including motivation or incentive for speed vs. accuracy, species and modality but none of these hypotheses has been directly tested. An alternative explanation is that the different degrees of SAT are related to the nature of the task being performed. Here, we addressed this problem by comparing SAT in two odor-guided decision tasks that were identical except for the nature of the task uncertainty: an odor mixture categorization task, where the distinguishing information is reduced by making the stimuli more similar to each other; and an odor identification task in which the information is reduced by lowering the intensity over a range of three log steps. (...)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vision-based hand gesture recognition is an area of active current research in computer vision and machine learning. Being a natural way of human interaction, it is an area where many researchers are working on, with the goal of making human computer interaction (HCI) easier and natural, without the need for any extra devices. So, the primary goal of gesture recognition research is to create systems, which can identify specific human gestures and use them, for example, to convey information. For that, vision-based hand gesture interfaces require fast and extremely robust hand detection, and gesture recognition in real time. Hand gestures are a powerful human communication modality with lots of potential applications and in this context we have sign language recognition, the communication method of deaf people. Sign lan- guages are not standard and universal and the grammars differ from country to coun- try. In this paper, a real-time system able to interpret the Portuguese Sign Language is presented and described. Experiments showed that the system was able to reliably recognize the vowels in real-time, with an accuracy of 99.4% with one dataset of fea- tures and an accuracy of 99.6% with a second dataset of features. Although the im- plemented solution was only trained to recognize the vowels, it is easily extended to recognize the rest of the alphabet, being a solid foundation for the development of any vision-based sign language recognition user interface system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When interacting with each other, people often synchronize spontaneously their movements, e.g. during pendulum swinging, chair rocking[5], walking [4][7], and when executing periodic forearm movements[3].Although the spatiotemporal information that establishes the coupling, leading to synchronization, might be provided by several perceptual systems, the systematic study of different sensory modalities contribution is widely neglected. Considering a) differences in the sensory dominance on the spatial and temporal dimension[5] , b) different cue combination and integration strategies [1][2], and c) that sensory information might provide different aspects of the same event, synchronization should be moderated by the type of sensory modality. Here, 9 naïve participants placed a bottle periodically between two target zones, 40 times, in 12 conditions while sitting in front of a confederate executing the same task. The participant could a) see and hear, b) see , c) hear the confederate, d) or audiovisual information about the movements of the confederate was absent. The couple started in 3 different relative positions (i.e., in-phase, anti-phase, out of phase). A retro-reflective marker was attached to the top of the bottles. Bottle displacement was captured by a motion capture system. We analyzed the variability of the continuous relative phase reflecting the degree of synchronization. Results indicate the emergence of spontaneous synchronization, an increase with bimodal information, and an influence of the initial phase relation on the particular synchronization pattern. Results have theoretical implication for studying cue combination in interpersonal coordination and are consistent with coupled oscillator models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pedro Andrade destaca o papel que as literacias híbridas preenchem numa redefinição pós-colonial da Europa. Em sua opinião, as literacias híbridas constituem uma condição necessária para a desconstrução do discurso colonial e a posterior reconstrução de literacias e literaturas pós-coloniais. Como parte deste processo, o autor argumenta a necessidade de vários tipos de competências que enfatizem a leitura e escrita não apenas dentro de sua própria cultura, mas também nas culturas dos outros. A literacia digital desempenha um papel particularmente importante neste processo, o que nos permite enfatizar as multivocalidades desta alteridade, igualmente na interação entre diferentes tradições de literacia: Ocidental e Oriental, nacional e transnacional, verbal e mediática. Andrade exemplifica o conceito de literatura transmediática com uma série de projetos em que esteve envolvido, por exemplo a Web 3.0 Novel enquanto modalidade daquilo que ele nomeia "GeoNeoLogic Novel". Este género de novel experimental mistura a narrativa com a teoria e a recolha de dados no campo empírico, promovendo uma abordagem que se apresenta simultaneamente regional e global. Em suma, o autor sugere diversos conceitos em primeira mão que classifica de ‘origem Lusófona’, e que representam diversas estratégias pós-coloniais globais também visíveis na área social, política e cultural da Lusofonia: o ‘pensamento-réplica’ (thinking back); o 'conhecimento transmediático' (transmediatic knowledge); a ‘sociedade da escrita comum’ (common writing society); as ‘redes comuns de conflito/significado’ (common webs of conflict and meaning); a literatura co-ordinária (co-ordinary literature).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em contextos como o de Moçambique que apresenta uma diversidade linguística, o uso de mais de uma língua no ensino é quase que obrigatório. Assim, urge a necessidade de formalizar a Educação Bilingue (EB) nas escolas moçambicanas. A modalidade de EB em Moçambique é de transição e manutenção, nas primeiras classes (1ª, 2ª e 3ª) usa-se a língua local como meio de instrução e o Português é uma disciplina, a partir da 4ª classe há uma inversão. Dessa estratégia o aluno deve estar em condições na 5ª classe de enfrentar o exame nacional, que é feito em língua oficial Portuguesa, para transitar do 1º para o 2º grau. O trabalho tem como problema esta interrogação: De que modo o programa curricular de Educação Bilingue se traduz nas práticas pedagógicas nas escolas do Ensino Básico que usam a língua Portuguesa e Changana no distrito de Bilene, na província de Gaza? O estudo empírico é de natureza qualitativa e quantitativa, com a utilização de técnicas de recolha de dados como a análise documental, entrevistas, questionário e provas escrita e oral aos alunos. Do estudo conclui-se: i) Não existe um programa de base especificamente para EB; ii) Há incongruência entre o programa e as práticas pedagógicas e iii) Os alunos apresentam maior dificuldades de compreensão, na escrita do que na oralidade, nas provas de conhecimento nas disciplinas básicas (Português e Matemática) em língua Portuguesa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The currently available clinical imaging methods do not provide highly detailed information about location and severity of axonal injury or the expected recovery time of patients with traumatic brain injury [1]. High-Definition Fiber Tractography (HDFT) is a novel imaging modality that allows visualizing and quantifying, directly, the degree of axons damage, predicting functional deficits due to traumatic axonal injury and loss of cortical projections. This imaging modality is based on diffusion technology [2]. The inexistence of a phantom able to mimic properly the human brain hinders the possibility of testing, calibrating and validating these medical imaging techniques. Most research done in this area fails in key points, such as the size limit reproduced of the brain fibers and the quick and easy reproducibility of phantoms [3]. For that reason, it is necessary to develop similar structures matching the micron scale of axon tubes. Flexible textiles can play an important role since they allow producing controlled packing densities and crossing structures that match closely the human crossing patterns of the brain. To build a brain phantom, several parameters must be taken into account in what concerns to the materials selection, like hydrophobicity, density and fiber diameter, since these factors influence directly the values of fractional anisotropy. Fiber cross-section shape is other important parameter. Earlier studies showed that synthetic fibrous materials are a good choice for building a brain phantom [4]. The present work is integrated in a broader project that aims to develop a brain phantom made by fibrous materials to validate and calibrate HDFT. Due to the similarity between thousands of hollow multifilaments in a fibrous arrangement, like a yarn, and the axons, low twist polypropylene multifilament yarns were selected for this development. In this sense, extruded hollow filaments were analysed in scanning electron microscope to characterize their main dimensions and shape. In order to approximate the dimensional scale to human axons, five types of polypropylene yarns with different linear density (denier) were used, aiming to understand the effect of linear density on the filament inner and outer areas. Moreover, in order to achieve the required dimensions, the polypropylene filaments cross-section was diminished in a drawing stage of a filament extrusion line. Subsequently, tensile tests were performed to characterize the mechanical behaviour of hollow filaments and to evaluate the differences between stretched and non-stretched filaments. In general, an increase of the linear density causes the increase in the size of the filament cross section. With the increase of structure orientation of filaments, induced by stretching, breaking tenacity increases and elongation at break decreases. The production of hollow fibers, with the required characteristics, is one of the key steps to create a brain phantom that properly mimics the human brain that may be used for the validation and calibration of HDFT, an imaging approach that is expected to contribute significantly to the areas of brain related research.